Articles

Publié le 12 octobre 2021 Mis à jour le 12 octobre 2021

Extraire les biais de l'intelligence artificielle

Nos algorithmes possèdent, hélas, nos biais sociétaux

La présence des intelligences artificielles (IA) semblait encore digne de la science-fiction au début du 21e siècle. De nos jours, les interfaces usant d'algorithmes sont légion. Que ce soit les réseaux sociaux, les sites d'achat en ligne ou l'Internet des objets, éviter les IA paraît un exercice de plus en plus difficile. Tous les milieux cherchent au contraire à user des algorithmes afin d'améliorer les services aux citoyens, aux patients et même aux étudiants.

Des IA biaisées

Or, l'utilisation de ces algorithmes ne se fait pas sans heurts. Des spécialistes remarquent et dénoncent les biais algorithmiques.  Soyons clairs : les machines ne discriminent pas volontairement. Elles reproduisent plutôt les jugements partiaux encore fortement présents dans nos sociétés malgré les avancées des dernières décennies. Par exemple, des annonces d'emploi sur les réseaux sociaux affichées selon le genre de l'utilisateur : postes d'ingénieur ou de métiers de la construction pour les hommes, d'infirmières ou d'enseignantes pour les femmes.

D'ailleurs, les usagers de Facebook, Twitter et les autres vivent aussi des décisions parfois injustes des algorithmes. Bien que les GAFAM emploient de la main-d'oeuvre pour modérer ce qui se dit en ligne, ces employés ne peuvent analyser les millions d'interactions qui s'y font chaque seconde. Du coup, les intelligences artificielles punissent les termes allant à l'encontre de la politique du site. Or, cela peut aboutir à des situations absurdes puisqu'ils ne peuvent prendre en compte le contexte.

Par exemple, des vocables diffamants sur les LGBTQI2S+ sont généralement interdits. Cela a mené à un groupe de défense des droits dénonçant ce genre de propos... à être censuré pour contenu haineux. L'algorithme étant incapable de comprendre que bien des associations militantes essaient de se réapproprier les insultes afin de leur faire perdre cette puissance homophobe.

Inégaux en santé et devant la justice

Toutefois, les exemples les plus patents se sont vus dans le domaine de la santé aux États-Unis. Les algorithmes sont en effet capables d'assister le personnel médical lorsque vient le moment de diagnostiquer un bénéficiaire de soins. Or, une intelligence artificielle a démontré qu'elle défavorisait les patients noirs atteints de déficience rénale à une greffe dont ils auraient eu besoin. Un biais donc dangereux et qui s'explique peu.

Voilà probablement une de poignées des critiques de l'IA : difficile de comprendre comme elle prend ces décisions. Par exemple, des algorithmes ont montré leur capacité à différencier les radiographies de patients d'ethnies différentes. Or, même les auteurs de l'étude ne saisissent pas comment les IA arrivent à un taux de succès minimal de 80%, voire 99% pour certains. Ce qui soulève de sérieuses questions dans un domaine où la discrimination systémique mène à plus de décès.

Les biais raciaux sont probablement les plus élevés selon le rapport de l'Institute for Human-Centered Artificial Intelligence de l'université de Standford. Leur analyse des cinq dernières années montre que les risques n'ont pas diminué, au contraire. Des IA de reconnaissance faciale analysant un visage d'une personne noire ont proposé aux usagers des vidéos sur les primates... Cela peut inquiéter entre autres dans le domaine de la justice qui compte de plus en plus sur les algorithmes pour établir des peines ou des amendes. Il sera donc nécessaire que le personnel de la justice garde une approche humaine malgré les suggestions de la machine.

Des solutions techniques et humaines

En effet, la solution pour contrer ses biais passera par ceux qui les ont conçus. Parce que  les machines ont autant de difficulté que les humains à reconnaître leurs erreurs d'appréciation. Nous devons comprendre, comme argumente Aurélie Jean, que la science algorithmique n'est pas manichéenne. Certes, il existe manifestement des modifications à faire afin de lutter contre les biais. En fait, il faut rappeler que les algorithmes sont des outils. Fondamentalement neutres, ils peuvent autant aider l'humanité que lui nuire.

Alors que faire pour éliminer ces biais ? Certains ont des propositions techniques. Les grandes entreprises technologiques organisent déjà des programmes de "recherche de bogues" que ce soit sur les systèmes d'exploitation ou les navigateurs Internet. Ainsi, des chasseurs passent leur temps à rechercher les failles de vulnérabilité et à les signaler afin que les compagnies les règlent avec des mises à jour. Et si une telle initiative était mise en place avec les IA? Des personnes spécialisées pourraient analyser des décisions et voir là où l'algorithme erre afin de l'améliorer.

Pour contrer les biais sexistes des algorithmes à l'embauche, des spécialistes ont établi une définition statistique de l'égalité. Cela permet de donner le feu vert à une intelligence balançant bien les données hommes-femmes et un feu rouge celles ayant des biais. Une telle approche basée sur les données pourrait plus facilement s'intégrer à un code d'IA et s'adapter pour la question raciale aussi. Encore faut-il que les développeurs aient envie que des mécaniques du genre soient mises en place. Beaucoup d'entre eux préfèrent garder jalousement les secrets de leur programme. Sera-t-il alors nécessaire que des lois soient instaurées afin que les entreprises d'IA soient redevables en cas de discrimination?

Une autre partie de la solution passe par la représentativité. En effet, une très grande majorité des concepteurs d'IA sont des hommes blancs. Faut-il donc être étonné que les biais concernent les femmes et les personnes d'autres ethnies? Ainsi, l'intégration de ces groupes dans les compagnies produisant des algorithmes pourrait aider à diminuer grandement ces biais. Augmenter aussi la présence dans les banques de données de visages non blancs afin d'améliorer la reconnaissance faciale, entre autres.

Illustration : Fakurian Design sur Unsplash

Références :

Eikholt, Sebas. "Mise En Garde Des Experts Dans L'exploitation De L'IA Et Ses Préjugés Cachés." Smarthealth. Dernière mise à jour : 23 septembre 2021. https://smarthealth.live/fr/2021/09/23/les-experts-mettent-en-garde-contre-les-prejuges-lies-a-lia-dans-les-soins-de-sante/.

Grison, Thibault. "IA Et Modération Des réseaux Sociaux : Un cas D’école De « discrimination Algorithmique »." The Conversation. Dernière mise à jour : 9 septembre 2021. https://theconversation.com/ia-et-moderation-des-reseaux-sociaux-un-cas-decole-de-discrimination-algorithmique-166614.

"Intelligence Artificielle : Arme De Discrimination Massive ?" Magazine Décideurs. Dernière mise à jour : 11 décembre 2020. https://www.magazine-decideurs.com/news/intelligence-artificielle-arme-de-discrimination-massive.

Jean, Aurélie. "La Science Des Algorithmes N’est Pas Manichéenne." Le Point. Dernière mise à jour : 23 mai 2021. https://www.lepoint.fr/invites-du-point/aurelie-jean-la-science-des-algorithmes-n-est-pas-manicheenne-23-05-2021-2427670_420.php.

Leprince-Ringuet, Daphné. "Repérer Les Biais Algorithmiques De L'IA Grâce Aux Programmes De Bug Bounty ?" ZDNet France. Dernière mise à jour : 16 mars 2021. https://www.zdnet.fr/actualites/reperer-les-biais-algorithmiques-de-l-ia-grace-aux-programmes-de-bug-bounty-39919477.htm.

Maquet, Clémence. "Intelligence Artificielle : Quelle Approche Des Biais Algorithmiques ?" Siècle Digital. Dernière mise à jour : 11 mai 2021. https://siecledigital.fr/2021/05/11/intelligence-artificielle-quelle-approche-des-biais-algorithmiques/.

Mélin, Anna. "Les Biais Algorithmiques : Un Défi Majeur Dans Nos Sociétés Numérisées." Villes Internet. Dernière mise à jour : 16 juillet 2021. https://www.villes-internet.net/site/les-biais-algorithmiques-un-defi-majeur-dans-nos-societes-numerisees/.

Nast, Condé. "These Algorithms Look at X-Rays—and Somehow Detect Your Race." Wired. Dernière mise à jour : 5 août 2021. https://www.wired.com/story/these-algorithms-look-x-rays-detect-your-race/.

Prades, Arnaud. "Pour éviter Les Biais De L'IA, Mieux Vaut S'intéresser Au Facteur Humain Qu'aux Questions Techno." JDN. Dernière mise à jour : 30 juin2021. https://www.journaldunet.com/solutions/dsi/1503581-pour-eviter-les-biais-de-l-intelligence-artificielle-mieux-vaut-s-interesser-au-facteur-humain-qu-aux-questions-technologiques/.

Pérignon, Christophe. "« Un $ % De programme Sexiste » : Comment Détecter Et Corriger Les biais Des IA." The Conversation. Dernière mise à jour : 15 mars 2021. https://theconversation.com/un-de-programme-sexiste-comment-detecter-et-corriger-les-biais-des-ia-156874.

Richard, Philippe. "Comme Les êtres Humains, L’IA Repère Difficilement Ses Erreurs D’appréciation." Techniques De L'Ingénieur. Dernière mise à jour : 13 septembre 2021. https://www.techniques-ingenieur.fr/actualite/articles/comme-les-etres-humains-lia-repere-difficilement-ses-erreurs-dappreciation-99116/.

Trujilo, Elsa. "Aux Etats-Unis, Un Algorithme Accusé D'avoir Défavorisé Des Patients Noirs Pour Des Greffes De Rein." BFMTV. Dernière mise à jour : 27 octobre 2020. https://www.bfmtv.com/tech/aux-etats-unis-un-algorithme-accuse-d-avoir-defavorise-des-patients-noirs-pour-des-greffes-de-rein_AN-202010270161.html.

"VIDEO. Les Algorithmes Qui Nous Entourent Sont-ils Racistes Et Sexistes ?" Franceinfo. Dernière mise à jour : 19 août 2021. https://www.francetvinfo.fr/societe/droits-des-femmes/video-les-algorithmes-qui-nous-entourent-sont-ils-racistes-et-sexistes_4721831.html.

Zignani, Gabriel. ""Les Juges, Policiers Et Avocats Vont Devoir S’approprier La Justice Algorithmisée"." La Gazette Des Communes. Dernière mise à jour : 21 juillet 2021. https://www.lagazettedescommunes.com/757552/les-juges-policiers-et-avocats-vont-devoir-sapproprier-la-justice-algorithmisee/.


Voir plus d'articles de cet auteur

Dossiers

  • Architectures invisibles


Le fil RSS de Thot Cursus - Besoin d'un lecteur RSS ? Feedly, NewsBlur


Les tweets de @Thot


Accédez à des services exclusifs gratuitement

Inscrivez-vous et recevez nos infolettres en pédagogie et technologies éducatives

Vous pourrez aussi indexer vos ressources préférées et retrouver votre historique de consultation

M’abonner à l'infolettre

Superprof : la plateforme pour trouver les meilleurs professeurs particuliers en France (mais aussi en Belgique et en Suisse)


 

Ajouter à mes listes de lecture


Créer une liste de lecture

Recevez nos nouvelles par courriel

Chaque jour, restez informé sur l’apprentissage numérique sous toutes ses formes. Des idées et des ressources intéressantes. Profitez-en, c’est gratuit !