“En 2017, Joy Buolamwini, une informaticienne noire, s’est aperçu qu’elle n’arrivait pas à utiliser un logiciel de reconnaissance faciale. Et pour cause : l’algorithme du logiciel n’était pas capable de détecter sa peau. Pourtant, quand elle portait un masque blanc, il fonctionnait.” Voici un extrait d’un article de Brut, sorti le 2 janvier 2020.
Cette anecdote, qui est pour beaucoup choquante, révèle beaucoup de choses sur la reconnaissance faciale, et plus précisément sur le fonctionnement de cette technologie. Face à de tels faits, il est naturel de se demander : “L’intelligence artificielle est-elle raciste ?”. Dans ce cas de figure, comment ne pas détester l’IA ? Comme vous allez le voir, la réalité est plus complexe.
Ce qu’il faut bien comprendre, c’est que les algorithmes d’intelligence artificielle comportent souvent des biais et des erreurs qui peuvent entraîner des complications, que ce soit dans la sphère professionnelle ou civile. Cela peut confirmer les craintes de certains d’entre vous, voire vous effrayer, mais il est bon de rappeler que rien, ni personne n’est parfait. Derrière cette vérité générale un petit peu hors-propos, se cache un sens plus profond quand on l’applique au domaine de l’IA. Il y a autant de chances que l’intelligence artificielle ait des biais que nous, humains, en ayons, pour la simple et bonne raison que ces algorithmes sont nos propres créations.
L’intelligence artificielle, une technologie imparfaite
Une intelligence artificielle n’existe que grâce à une suite de commandes, de procédés logiques qui créeront un algorithme. En partant de cette observation, l’IA est “amorale” selon Ider Oudad, expert en valorisation des données et data scientist chez IoD solutions.
Selon lui, l’IA ne devient morale qu’à partir du moment où nous donnons à cette dernière les critères de sélection pour la création d’un algorithme, et c’est pourquoi il existe des biais. Il explique : “Si vous créez un algorithme pour traiter des CV et prendre le meilleur candidat possible, il faut que soumettiez un échantillonnage représentatif de la population. Sans cela, l’algorithme apprendra seulement de profils spécifiques, qui peuvent être en minorité dans la population, et excluera d’autres profils plus représentatifs de la population dans son ensemble.“
Les biais de l’IA sont notre responsabilité
En réalité, l’IA n’est pas inclusive, car, comme l’explique Ider Oudad, elle est “discriminante, elle sélectionne, c’est sa raison d’être, sans quoi elle n’a aucun intérêt“. Ce sont les constructeurs qui façonnent l’IA et qui la biaise, et non l’IA qui est intrinsèquement biaisée.
Les intelligences artificielles ont bien des biais, mais il est possible de les réduire si les algorithmes sont bien configurés. Cela ne dépend que de nous. Le seul problème, c’est que nous sommes constamment en proie à des biais, même quand il ne le faudrait pas (dans la sphère juridique, médicale…). Nous sommes des êtres émotionnels, non 100% rationnels, et c’est en cela qu’il y a plus à craindre des êtres humains que de l’IA.Bien utilisée, cette technologie peut même nous aider à être moins biaisés – à condition de ne pas en avoir peur.
Par Alexandre Didier
Source : Les algorithmes sont-ils racistes et sexistes ? (Brut, 2 janvier 2020)
Pour en savoir plus sur les raisons techniques qui font que l’intelligence artificielle est biaisée, et quelles solutions il est possible de mettre en place, n’hésitez pas à lire notre article sur le sujet : L’IA et les biais algorithmiques 💻
Cet article a été publié pour la première fois le 22 septembre 2021 sur Hypertext, le blog de l’association Plug’n’Play. N’hésitez pas à y faire un tour pour trouver d’autres articles sur le numérique !