Par Pauline Sicsik
La reconnaissance faciale est un outil qui a la capacité de renforcer la sécurité et de simplifier grandement la vie des gens. Toutefois, son utilisation et son fonctionnement soulèvent de nombreuses questions éthiques.
La reconnaissance faciale n’est pas fiable
La reconnaissance faciale fonctionne grâce à l’intelligence artificielle. Or les technologies liées à l’intelligence artificielles ont des défauts qui se manifestent lors de l’utilisation de la reconnaissance faciale.
Par exemple, la reconnaissance faciale n’est pas fiable à 100%, même si d’énormes progrès ont été faits en la matière. Les causes sont variées : l’algorithme peut ne pas avoir été suffisamment entraîné, une perturbation de l’image (pixels dégradés, luminosité insuffisante), ou bien un changement de physionomie de la personne (vieillissement, maquillage, lunettes) peuvent entraîner un échec de la reconnaissance faciale. Cela signifie non seulement que vous pouvez vous-même tromper la reconnaissance faciale, mais aussi que la reconnaissance faciale peut vous confondre avec un autre. Or cela est problématique, en particulier lorsque la technologie est utilisée par les forces de l’ordre, puisqu’il n’est pas impossible que des innocents soient confondus avec des criminels et accusés de crimes qu’ils n’ont pas commis.
Par exemple, le programme DeepFace de Facebook, lancé en 2014, est fiable à 97,25%. En 2015, Google faisait mieux avec FaceNet, dont le taux de fiabilité s’élève à 99,63%. En juillet 2018, Newsweek a révélé que le programme de reconnaissance faciale Rekognition d’Amazon a échoué à reconnaître 28 membres du Congrès américain en les confondant avec des criminels. [1]
Par ailleurs, la reconnaissance faciale peut être biaisée. L’IA fonctionne grâce au machine learning (ou apprentissage automatique), dont la première phase, le computer training, consiste à entraîner « manuellement » l’algorithme à donner le bon output (donnée(s) de sortie) en fonction de l’input (donnée(s) d’entrée). Or le computer training a de très forte chance d’être soumis à ce qu’on appelle un biais algorithmique, qui se produit lorsque les données utilisées lors de la phase de computer training reflètent les valeurs implicites des humains impliqués dans la collecte, la sélection, ou l’utilisation de ces données. Autrement dit, une IA reflète les biais de la société qui l’a conçue. Ce biais s’est manifesté à plusieurs occasion lors de l’utilisation de la reconnaissance faciale. Fin 2019, une étude du National Institute of Standards and Technology (NIST) rapportée par le Washington Post, révélait que « la plupart des algorithmes de reconnaissance faciale démontraient des « différentiels démographiques » qui peuvent réduire leur fiabilité en fonction de l’âge, du genre ou de l’origine d’une personne ». Suite à l’analyse de dizaines d’algorithmes, le NIST a conclu que la reconnaissance faciale échoue 100 fois plus souvent à reconnaître des personnes noires ou asiatiques que des personnes blanches. Deux algorithmes ont également échoué à attribuer le bon sexe à des femmes noires dans 35% des cas. Par ailleurs, ce différentiel est plus marqué dans les algorithmes développés aux Etats-Unis que dans les algorithmes développés en Asie. [2]
La reconnaissance faciale est-elle le nouveau Big Brother ?
Ce ne sont pas seulement les limites inhérentes aux technologies de l’intelligence artificielles qui soulèvent des questions éthiques mais également l’utilisation humaine qui en est faite.
La reconnaissance faciale peut être utilisée comme moyen de contrôle de la population par les autorités en place. En Chine, par exemple, la reconnaissance faciale est une technologie présente aussi bien dans les toilettes publiques que dans la rue. En 2018, 170 millions de caméras de vidéosurveillance étaient déjà installées dans tout le pays par les autorités, et en 2021, le pays devrait en compter 570 millions. Ce qui représente une caméra pour environ trois habitants. Officiellement, le but est d’augmenter la sécurité. [3] Mais en février 2019, un spécialiste en cybersécurité néerlandais, Victor Gevers, a découvert une base de données incluant l’identité et la géolocalisation des habitants de la province du Xinjiang, et plus particulièrement des Ouïghours, une minorité turcophone majoritairement musulmane considérée comme une menace séparatiste par le gouvernement chinois. Ces données ont été collectées par SenseNet, une société chinoise qui fournit des programmes de reconnaissance faciale et des caméras de surveillance, et travaille avec la police chinoise. Ce système aurait permis l’arrestation de plus d’un million de Ouïghours, d’après des ONG comme Human Right Watch. [4]
La reconnaissance faciale permet de constituer des bases de données biométriques. Mais ces bases de données peuvent être hackées si les pares-feux nécessaires n’ont pas été mis en place au préalable. Ce sont donc des milliards de données qui peuvent utilisées et revendues à des fins non consenties par les individus.
En somme, c’est la question des données personnelles qui se pose : les données biométriques peuvent être collectées à l’insu des individus, et/ou utilisées sans leur accord, et/ou à des fins abusives. Ils peuvent ne pas avoir accès aux informations relatives à la collecte de leurs données, et/ou ne pas avoir le droit d’en demander la suppression. La reconnaissance faciale peut se révéler extrêmement intrusive et violer les droits fondamentaux des individus.
Enfin la reconnaissance faciale coûte cher. En termes financiers, le déploiement d’une telle technologie dans les gares, les aéroports, les villes voire sur l’ensemble du territoire, comme c’est le cas en Chine, est extrêmement coûteux, non seulement à cause des caméras mais aussi à cause du développement des algorithmes et de bases de données, des ordinateurs et des supports de stockages, ainsi que des infrastructures nécessaires à leur bon fonctionnement. Par ailleurs, les conséquences écologiques ne sont pas neutres : la création de quantité de données quotidiennes, leur gestion, les ressources utilisées pour le fonctionnement des systèmes dans leur ensemble consomment beaucoup d’énergie et rejettent des quantités importantes de gaz à effet de serre.
Quelles solutions pour un emploi éthique de la reconnaissance faciale ?
Face aux dérives potentielles de l’usage de la reconnaissance faciale, nous ne sommes pas sans solution.
Aux Etats-Unis, le bannissement pur et simple de la reconnaissance faciale a été voté par le conseil municipal de San Francisco en mai 2019, à l’exception des systèmes de déverrouillage des smartphones, suivi par Oakland et Somerville. Portland et New-York travaillent actuellement à des règles visant à limiter son usage [5]. En octobre 2019, le groupe militant Fight For the Future a convaincu une quarantaine de festivals, tels que Coachella et Lollapalooza de ne pas utiliser la reconnaissance faciale. [6] En janvier 2020, il a été envisagé par l’Union Européenne de bannir la reconnaissance faciale de l’espace public, mais cette idée a rapidement été rejetée.
De façon moins radicale, c’est au niveau de la législation que peut se créer le rempart entre les individus et une utilisation abusive de la reconnaissance faciale. En Union Européenne, le Règlement Général de Protection des Données régule l’utilisation des données personnelles des individus par des tiers, ce qui inclut les données biométriques. En France, la CNIL est également un acteur important de la régulation de l’utilisation de la reconnaissance faciale : il ne s’agit pas de bannir la technologie car son utilisation peut être utile, mais plutôt de l’encadrer pour éviter toute dérive et respecter les droits des individus. Elle demande également une clarification juridique en la matière. [7] Mais ce n’est pas le cas de tous les pays : la Chine ne dispose pas d’une régulation en faveur des droits des individus, aux Etats-Unis, il n’y a pas encore de régulation au niveau fédéral.
Le poids des géants de la tech
En septembre 2019, ce ne sont pas moins de 51 entreprises américaines qui ont adressé une lettre ouverte au Congrès américain où ils réclament la mise en place d’une loi similaire au RGPD. On y retrouve par exemple Walmart, Amazon, Motorola, IBM, Salesforce, Mastercard, JPMorgan, et bien d’autres. Microsoft et Google se sont également positionnés en faveur d’une régulation de l’IA et de la reconnaissance faciale aux Etats-Unis. Mais quels sont les intérêts réels visés par les grandes entreprises de la tech ? S’agit-il purement d’utilisation éthique de la reconnaissance faciale ? Il a été avancé que les enjeux pourraient être autres, comme par exemple peser dans le processus législatif, éviter une réglementation trop restrictive, homogénéiser la loi sur le territoire américain, ou encore faire de la loi un avantage concurrentiel. [8]
Le cas de Clearview
Clearview est une start-up américaine dont le logiciel peut comparer en quelques instants une photographie avec une base de données de plus de trois milliards de photographies qui ont été copiées sur les plateformes sociales : Facebook, LinkedIn, Instagram, Twitter… Le logiciel permet ainsi de connaître le nom, le lieu de vie, les fréquentations et les activités de n’importe qui. Aux Etats-Unis, 600 services de polices et des services de sécurité privés l’ont adopté, car il s’agit d’un outil puissant qui complète les bases de données locales ou fédérales : un visage repéré par une caméra peut être identifié grâce aux photos postées par l’individu en question sur les réseaux sociaux, permettant une identification plus facile de témoins ou de suspects. Le logiciel fonctionnerait également avec des photos imparfaites (lunettes, images partielles d’un visage…), et, selon l’entreprise, trouve une correspondance dans 75% des cas. Reste la question plus inquiétante des identifications erronées. Par ailleurs, Clearview n’est pas soumis aux mêmes règles que les bases de données fédérales ou locales : les photos ne sont, par exemple, jamais effacées. A noter également que Clearview était non seulement initialement financée par Peter Thiel, fondateur de Palantir, membre du conseil d’administration de Facebook et réputé proche de Donald Trump.
La reconnaissance faciale est une technologie utile. Mais comme toute technologie, elle est d’une part soumise à des limites techniques, et elle peut d’autre part être utilisée de façon abusive. Cela ne devrait pas impliquer un bannissement pur et simple de la reconnaissance faciale, mais il est nécessaire de mettre en place dès maintenant les gardes-fous nécessaires pour protéger les libertés et les droits des individus.
Sources :
[1] Gemalto (2020), “Facial recognition: top 7 trends (tech, vendors, markets, use cases and latest news)”, disponible à : https://www.gemalto.com/govt/biometrics/facial-recognition
[2] D. Harwell (2019), “Federal study confirms racial bias of many facial-recognition systems, casts doubt on their expanding use”, disponible à : https://www.washingtonpost.com/technology/2019/12/19/federal-study-confirms-racial-bias-many-facial-recognition-systems-casts-doubt-their-expanding-use/
[3] The Economist (2018), “China: facial recognition and state control”, disponible à : https://youtu.be/lH2gMNrUuEY
[4] S. Seibt (2019), “Comment Pékin organise la surveillance 2.0 des Ouïghours”, France 24, disponible à : https://www.france24.com/fr/20190218-chine-ouighour-surveillance-xinjiang-reconnaissance-faciale-qr-code-musulman
[5] A. Cherif (2019), “Etats-Unis : les villes s’attaquent à la régulation de la reconnaissance faciale”, La Tribune, disponible à : https://www.latribune.fr/technos-medias/etats-unis-les-villes-s-attaquent-a-la-regulation-de-la-reconnaissance-faciale-830100.html
[6] M. Chapuis (2019), “Des festivals se dressent pour arrêter une technologie « envahissante et raciste”, Tous les festivals, disponible à : https://www.touslesfestivals.com/actualites/des-festivals-se-dressent-pour-arreter-une-technologie-envahissante-et-raciste-051119
[7] B. Hue (2019), “Reconnaissance faciale : la Cnil veut éviter un changement de société non anticipé”, RTL, disponible à : https://www.rtl.fr/actu/futur/reconnaissance-faciale-la-cnil-veut-eviter-un-changement-de-societe-non-anticipe-7799470409
[8] A. Vitard (2019), “Pourquoi les GAFAM prennent-ils une posture pro-régulation ?”, Usine Digitale, disponible à : https://www.usine-digitale.fr/article/pourquoi-les-gafam-prennent-ils-une-posture-pro-regulation.N886719