Digital Society Forum Digital Society Forum
Focus 19/12/2019

Faut-il un moratoire sur la reconnaissance faciale ?

Les dispositifs de reconnaissance faciale se multiplient, notamment dans les aéroports ou aux frontières. (crédit Delta News Hub , CC BY 2.0 via Flickr).
La reconnaissance faciale se développe, soutenue par plusieurs gouvernements et les entreprises. Mais de plus en plus d'appels à des interdictions ou du moins des moratoires se font entendre. Quels sont les arguments de ces critiques ?

La reconnaissance faciale se développe, soutenue par plusieurs gouvernements et les entreprises. Mais de plus en plus d'appels à des interdictions ou du moins des moratoires se font entendre. Quels sont les arguments de ces critiques ?

« N’ayons pas de pudeurs de gazelle !», lançait le 2 septembre le ministre de l’intérieur Christophe Castaner devant des sénateurs, décidé à lancer le débat sur la reconnaissance faciale.
Quelques mois plus tard, il était secondé par le secrétaire d’État au numérique, Cédric O, qui expliquait au Monde qu’il était nécessaire de pouvoir « expérimenter avec la reconnaissance faciale », pour que « nos industriels progressent ».
L’usage des technologies de reconnaissance faciale se répand rapidement, avec le soutien énergique des politiques et des industriels. Ceux-ci font valoir les bénéfices en matière de sécurité (pour accéder à des espaces numériques personnels, comme avec le projet gouvernemental ALICEM ), de maintien de l’ordre ou encore de gestion des flux de personnes (comme dans les aéroports), mais aussi l’importance pour la France de se placer parmi les leaders du marché.
Pourtant, du côté de la société civile, l’adhésion est loin d’être totale. Au contraire : un nombre croissant d’acteurs, chercheurs, citoyens, militants, appellent à l’interdiction de la reconnaissance faciale, ou du moins demandent un moratoire, le temps de mieux comprendre ses implications et de créer un cadre législatif solide.
Tour d’horizon de leurs arguments.

Vérifier une identité...


Le terme « reconnaissance faciale », comme celui d’ « intelligence artificielle », recouvre en réalité des usages qu’il faut distinguer.
La reconnaissance faciale est un ensemble de tâches de traitement et de classification d’image. Elle repose sur des techniques de vision par ordinateur, qui est un domaine de l’intelligence artificielle. La recherche en reconnaissance faciale existe depuis une cinquantaine d’années mais elle a fait des progrès spectaculaires dans la dernière décennie, grâce au développement des techniques d’apprentissage profond, notamment par réseaux neuronaux, et à la qualité croissante des images des caméras.
La « reconnaissance faciale » recouvre deux grandes catégories d’usages, comme le rappelle Le Monde .

Si celles-ci reposent sur le même principe (faire d’un visage une donnée biométrique et un marqueur permettant d’identifier un individu), elles ont des implications différentes pour la vie privée.

Il y a d’abord les applications d’identification faciale, qui permettent de vérifier ou d’authentifier une identité. C’est la technique employée dans le programme gouvernemental expérimental ALICEM, qui permettrait d’accéder à son espace numérique personnalisé avec une photo.
Dans ce cas de figure, l’appareil prend une photo et le programme la compare avec une photo qu’il connaît déjà, pour voir si les deux photos correspondent. La photo témoin peut être stockée sur le téléphone de l’utilisateur (comme le propose ALICEM) et pas dans une base de données externes.
Parfois, les photos témoins sont stockées dans des bases de données : par exemple dans le cas d’un portique de sécurité biométrique pour contrôler l’accès à une entreprise. Ici, l’appareil prend une photo d’un individu et la compare à une base de données des employés autorisés, par exemple. Cet usage relève alors de la constitution d’une base de données biométriques dites « sensibles », aux applications étroitement encadrées par la CNIL.



...ou identifier quelqu’un dans une foule ?


La deuxième utilisation est celle de l’identification faciale, qui consiste à repérer et isoler des visages sur une vidéo pour essayer de les identifier. Ces techniques sont actuellement les moins fiables, car de nombreux éléments extérieurs peuvent perturber la qualité de l’image source : celles-ci peuvent être de mauvaise qualité, tronquées, incomplètes... Ces techniques sont souvent utilisées dans des champs sensibles : police, sécurité, douane, immigration... Or pour l’instant, ces techniques d’identification « à la volée » font de nombreuses erreurs (sur des populations de millions de personnes, même des taux d’erreurs apparemment bas se traduisent en pratique par des milliers de faux positifs). En cause : sur le terrain, les images captées sont souvent de mauvaise qualité, incomplètes, tronquées... Les expériences non concluantes se multiplient : en Grande Bretagne, la police britannique constate que la reconnaissance faciale se trompe dans 98% des cas .
A Moscou, un programme de reconnaissance faciale appliqué par la police sur des images de vidéosurveillance captées dans la ville a un taux d’efficacité de 67% .
En France, Valérie Pécresse, présidente de la région Île-de-France, a ainsi déclaré début 2019 souhaiter l’application de la reconnaissance faciale dans les transports franciliens, car il serait « utile de repérer les terroristes recherchés par les services antiterroristes avant qu’ils ne montent dans les trains. »
Pourtant, un gendarme l’admet à un journaliste du Monde : « Il faut avoir un taux d’efficience de 80 %. On n’y est pas encore. Il faut faire plus d’expérimentations ».

Comme de nombreuses solutions d’ « intelligence artificielle », les technologies de « reconnaissance faciale » font l’objet de beaucoup de fantasmes et de discours marketing, parfois très éloignés de la réalité. Le chercheur Antonio Casilli, qui a publié l’an dernier une enquête sur les « petites mains de l’intelligence artificielle » , les « tâcherons » qui accomplissent les tâches d’étiquetage des données, d’identification des images... à la place des logiciels. Il identifie le même phénomène à l’œuvre dans la reconnaissance faciale : loin d’être entièrement automatisée, elle repose beaucoup sur des opérations humaines.

L'absence de bases scientifiques de la reconnaissance des émotions


La reconnaissance des émotions est une branche de la reconnaissance faciale, qui prétend pouvoir identifier l’état émotionnel des individus automatiquement, à partir de l’analyse de leurs expressions faciales.
De plus en plus d’entreprises proposent des services d’analyse de reconnaissance des émotions, parfois intégrés comme des bonus à leurs services de reconnaissance faciale. Certains promettent aux recruteurs de dépister l’implication de leurs employés , d’autres d’identifier les réactions des clients...


Source : NeuroHive

Or les chercheurs sont formels : il n’y a pas de base scientifique solide à ces techniques. L’Association for Psychological Science a examiné les résultats de plus de mille études sur la reconnaissance des émotions .
Ses conclusions sont formelles : il n’y a pas de preuve que ces logiciels puissent détecter des émotion. « Les entreprises peuvent dire ce qu’elles veulent, les données sont très claires. (ces programmes) peuvent détecter un froncement de sourcil, par exemple, mais ce n’est pas la même chose que de détecter la colère. » déclarait à The Verge une des autrices de l’article .
Les émotions se comprennent dans des contextes sociaux et culturels et leur interprétation est hautement subjective. Au cinéma, c’est ce qu’illustre le célèbre effet Koulechov : on place un plan d’un acteur inexpressif avant un plan de cercueil, de bol de soupe fumant ou d’enfant joyeux, et chaque fois les spectateurs lisent différemment l’expression du comédien.
Plus grave encore, les logiciels de reconnaissance des émotions montrent aussi des biais racistes. La chercheuse Lauren Rhue a ainsi montré que, sur une base de 400 photos de joueurs de la NBA, deux des programmes de reconnaissance des émotions les plus utilisés, Face++ et Face API de Microsoft, attribuaient plus souvent des émotions négatives à des photos de joueurs noirs, même quand ils souriaient.
Plusieurs chercheurs éminents, dont la spécialiste mondiale Kate Crawford, réunis pour écrire le rapport « AI Now » recommandent ainsi d’ «interdire l’usage de la reconnaissance des émotions dans la prise de décisions importantes qui ont un impact sur la vie des individus et les opportunités auxquelles ils ont accès. »

Des biais racistes et sexistes


Les biais racistes de la reconnaissance des émotions ne sont pas isolés : ces biais sont désormais bien identifiés par les chercheurs dans la reconnaissance faciale en général. On le doit notamment aux travaux de la chercheuse afro-américaine Joy Buolamwini, du MIT. Avec son projet « Gender Shades », elle a montré que plusieurs logiciels de reconnaissance faciale identifiaient bien moins les visages noirs que les blancs, et moins bien ceux des femmes. Un des logiciels avait un taux d’erreur de 0,8% pour les hommes à la peau claire, et de 34,7 % pour les femmes aux peaux foncées.



Ces disparités ne tiennent pas à des erreurs techniques, mais aux façons dont ces outils sont construits, et aux inégalités sociales structurelles. https://www.nytimes.com/2018/02/09/technology/facial-recognition-race-artificial-intelligence.html
Les logiciels de reconnaissance faciale sont entraînés sur quelques énormes bases d’images, composées de photos de visage. Beaucoup de ces bases de données comprennent plus de visages aux peaux claires et/ou de visages masculins. Une base de données largement utilisée comprend ainsi 77% de photos d’hommes et 83% de personnes à la peau claire.

Inversement, une étude de chercheurs de Georgetown Law School a montré que les Afro-Américains étaient plus exposés au risque de se voir identifiés comme des criminels par des logiciels de reconnaissance faciale, parce que les Afro-Américains sont surreprésentés dans les bases de données de photos prises au poste de police (les « mug-shot »).

Consciente de ces problèmes, plusieurs entreprises tentent de diversifier les bases de données : IBM, par exemple, a lancé « Diversity in faces », composée de visages plus « variés » pris dans les photos des usagers de Flickr. L’entreprise Clarifai, elle, vend une base de données d’images de profil d’utilisateurs d’OkCupid, un site de rencontre en ligne.
Pour les critiques, ces réponses sont insuffisantes, car elles ne répondent pas aux facteurs systémiques qui expliquent en partie ces biais : la faible représentation des minorités et des femmes dans le secteur de la tech.

Des visages collectés dans un flou légal et éthique total


Ces bases de données posent aussi de profonds problèmes éthiques, car la plupart des personnes figurant dans ces bases de données n’ont pas explicitement donné leur accord. Même si les utilisateurs de Flickr ont mis leurs photos sous Creative Commons, autorisant ainsi leur réemploi, ils n’ont pas pour autant autorisé IBM à en faire une base de données mondiale .
Ces pratiques éthiquement floues ne sont pas limitées aux entreprises : les universités aussi constituent des bases de données avec des images prises sans consentement. La base de données de visages Brainwash, utilisée et partagée par Stanford, avait été constituée à partir d’images prises sur le feed de caméra de surveillance d’un café de San Francisco, Brainwash, sans que les clients n’en soient informés. Les chercheurs Adam Harvey et Jules LaPlace recensent plusieurs de ces usages sur leur site MegaPixels .
Les personnes qui figurent dans ces bases de données l’ignorent et n’ont souvent aucun recours pour empêcher que leur visage ne serve à entraîner des programmes dont ils ignorent la finalité — ou avec laquelle ils sont en désaccord. Le New York Times rapportait que Clarifai déclarait avoir partagé sa solution de reconnaissance faciale avec potentiellement divers gouvernements, armées à travers le monde. Le journal ajoute : « Au moins une des bases de données créée aux États-Unis a été partagée avec une entreprise chinoise associée au profilage ethnique de la minorité des Ouïghours. »

Renforcer l’asymétrie de pouvoir entre les plus forts et les plus faibles


Pour les critiques de la reconnaissance faciale, l’exemple des biais racistes montre combien elle affecte surtout les populations déjà les plus discriminées ou vulnérables.
Dans les effets, beaucoup de ces technologies sont déployées à des fins de surveillance, et s’appliquent sur des populations déjà considérées comme suspectes : des caméras dans des quartiers dits « sensibles » ou dans des immeubles aux locataires pauvres à New York, par exemple. Aux États-Unis toujours, l’idée d’un « mur intelligent » avec le Mexique, utilisant des drones, des capteurs et davantage de reconnaissance faciale pour détecter les individus, est soutenu par des Démocrates comme des Républicains. La reconnaissance faciale est déjà utilisée par l’ICE (Immigration and Custom Enforcement) : cet été, le Washington Post révélait que le FBI et l’ICE utilisaient les bases de données des permis de conduire « comme socle d’une infrastructure de surveillance sans équivalent », utilisant la technologie de reconnaissance faciale.
C’est pourquoi, pour l’équipe du rapport AI Now : « il y a de plus en plus de preuves que cette technologie peut faire beaucoup de mal, le plus souvent aux populations de couleur et aux pauvres. Il faudrait établir un moratoire sur tous les usages de la reconnaissance faciale, dans tous les domaines sociaux et politiques sensibles (dont la surveillance, la police, l’éducation et l’emploi), où la reconnaissance faciale pose des risques et a des conséquences sur lesquelles on ne peut revenir. »

L’infrastructure de surveillance


Les critiques de la reconnaissance faciale vont donc au-delà des erreurs et des biais : elles pensent cette technologie dans le contexte sociotechnique où elle s’inscrit. Dans cette perspective, la reconnaissance faciale implique en réalité un ensemble d’autres technologies, une interconnexion de capteurs, de programmes, de serveurs et de fichiers, liés les uns aux autres dans une opacité la plupart du temps totale. Prenant l’exemple de la « ville connectée », le jeune chercheur américain Os Keyes écrit : « Pour participer à ce rêve – pour se acquérir des technologies de reconnaissance faciale — une ville doit souvent acquérir aussi tout un réseau de caméras de surveillance en haute définition, qui streament les données dans une base de données centralisées, qui va conserver les données ad infinitum, et où celles-ci pourront être passées au peigne fin pour identifier, à tout moment, tout personne considéré comme « suspecte ». »
Le terme de « reconnaissance faciale » recouvre en réalité toute une infrastructure de surveillance, qui s’inscrit dans une histoire plus globale de surveillance des populations jugées indésirables ou dangereuses. Pour reprendre encore Os Keyes : « C’est cette histoire qui fonctionne comme une justification du développement actuel des technologies d’exclusion et de contrôle — reconnaissance faciale, identification par empreintes digitales et autres techniques de traçage et de biométrie. Ces technologies – souvent testées aux frontières, dans les prisons et dans d’autres endroits « loin de la vue du public » — sont ensuite naturalisées pour surveiller et contrôler les personnes « normales » autant que les « déviants. »
Pour résumer : la reconnaissance faciale normalise la surveillance et l’usage de données biométriques, nous faisant basculer dans une société où nous serions tous par défaut des suspects, puisque nous tous en permanence susceptible d’être surveillés. C’est ce qui fait dire à Hubert Guillaud, sur InternetActu , que « la reconnaissance faciale est une idéologie. »

Mobilisations et moratoires


Cependant, un peu partout, des actions de résistance s’organisent. Aux Etats-Unis, plusieurs initiatives locales s’opposent à la reconnaissance faciale, à San Francisco, à Somerville ou encore à Detroit. En Californie, un décret interdisant l'usage de la reconnaissance faciale dans les caméras portées par les policiers vient d’être voté. Comme le note encore Hubert Guillaud, ces initiatives sont minoritaires et isolées. Mais elles expriment un refus de certains usages de la reconnaissance faciale dans la vie quotidienne qui résonne dans d’autres sphères de la société.
De nombreux chercheurs appellent à des moratoires ou des interdictions (sur la reconnaissance des émotions et la reconnaissance faciale).
Plusieurs gouvernements ont annoncé la mise en place de moratoire sur les usages de cette technologie, en attendant d’en savoir plus.
En Suède, le gouvernement a infligé une amende à un lycée qui utilisait de la reconnaissance faciale pour vérifier la présence des élèves, au nom de la violation du règlement européen sur la protection des données RGPD. En France, la CNIL a émis un avis défavorable sur l’utilisation de portiques équipés de reconnaissance faciale dans des lycées de la région PACA, jugeant l’emploi de la technologie « disproportionnée ».
Le parlement australien a ordonné la suspension de l’utilisation d’une base de données nationale, en attendant un cadre législatif capable de protéger les données personnelles des citoyens, d’assurer la transparence et des garde-fous suffisamment solides.
En France, divers appels à des moratoires et des débats publics sont parus dans la presse.

D’autres craignent que ces « conventions citoyennes » et « débats publics » ne soient insuffisants pour créer des garde-fous et appellent à une interdiction pure et simple. C’est le cas par exemple de la campagne Ban Facial Recognition , et en France la position de l’association de défense des libertés numériques "La Quadrature du Net". Pour elle, le « code de la route » publié par la CNIL est insuffisant, car manque de « lignes rouges » ferme. L'association écrit ainsi : « la reconnaissance faciale est une technologie exceptionnellement invasive, déshumanisante et élaborée à terme pour la surveillance et le contrôle permanente de l’espace public.(…) Elle « attribue au visage, non plus une valeur de personnalité, l’expression même de la singularité d’une personne humaine, mais une fonction de dénonciation ». Il n’existe pas de « reconnaissance faciale éthique » ou d’usage raisonné d’une surveillance biométrique intrinsèquement totalitaire. Seule l’interdiction est envisageable.”


Faut-il autoriser la reconnaissance faciale ? Pourra-t-on réellement la débarrasser de ses biais sans s’attaquer aux inégalités sociales structurelles ? Comment garantir la protection des données personnelles et des libertés fondamentales ? Comment empêcher que son extension ne fasse basculer nos sociétés dans des sociétés de surveillance continue, où les gouvernements auront un pouvoir démesuré pour traquer, identifier et localiser leurs opposants, comme c’est de plus en plus le cas en Chine ?
Ces questions sont de toute première importance, et il faut souhaiter que ce débat, qui ne fait que commencer, soit à la hauteur des enjeux.


Les commentaires

Pour réagir à cet article, je me connecte Je m’inscris

Daniel couturier
Daniel couturier 26/03/2020 18:13:36

Merci pour ces informations, c'est toujours sympa d'en savoir un peu plus sur ce sujet :)

Qwanturank news
Qwanturank news 26/02/2020 21:24:17

Très intéressant merci !


S’inscrire et participer

Inscrivez vous sur le Digital Society Forum pour commenter et réagir sur les articles et être informé des événements à venir

DSF