Digital Society Forum Digital Society Forum
Et si... ? 12/04/2018

Et si l’IA n’était pas le problème du rapport Villani ?

ORLAN ET ORLANoïde, Strip-tease électronique et verbal (2017) est l’une des pièces majeures de l’exposition Artistes & Robots , jusqu’au 9 juillet 2018 au Grand Palais. Cette œuvre prend place au cœur d’un « théâtre du deep learning ». Soit pas loin de créations d’artistes contemporains qui - comme ORLAN à sa façon féministe - ont été des pionniers de l’usage du numérique : Stelarc , Miguel Chevalier , Catherine Ikam et Louis Fléri , etc. On reparle de cette importante expo dans une série d’articles d’ici début mai. © Photo Aldo Paredes pour la Rmn-Grand Palais, 2018.
Original et plutôt remarquable sur la forme comme sur le fond, le rapport de Cédric Villani, « Donner un sens à l’intelligence artificielle », sous-titré « Pour une stratégie nationale et européenne », induit une question qu’il ne fait qu’effleurer : quelle société voulons-nous construire avec l’IA ? Première petite réflexion sur cet immense enjeu.

Page 68 à 70 du rapport Villani, une IA transforme un couple heureux en zone de tranchée virtuelle de l’ère de la prévoyance intégrale : disposant en effet de leurs datas à tous deux, « Madame Pizza3D fait dégringoler la cote de bonheur » de Kim. Une pizza mexicaine pour la femme de Timéo ? « Non, ce n’est pas possible. Madame Pizza3D dit qu’avec tes hémorroïdes, le piment n’est pas conseillé. » Pire, comme le dit le jeune homme un peu dépité à sa compagne : « Kim, si tu maintiens ta Mexicaine, tu auras un malus d’assurance de 30%. » Vous mangez trop gras ? Vous n’accomplissez pas vos 10.000 pas quotidiens mesurés par la grâce de votre montre connectée ? La vendeuse robotique dopée à l’IA vous apostrophe, car tout se sait à l’ère du tout numérique et des Big data globalisées. Et si vous voulez protester contre ces ingérences au cœur de votre vie privée ? « Ils sont équipés d’un système anti-insultes avec dépôt de plainte immédiat pour outrage à commerçant dans l’exercice de sa prévention. »

A l’instar de cette nouvelle signée Anne-Caroline Paucot et titrée « Perte de commande », des fictions imprimées sur fond bleu entrecoupent les chapitres de l’épais document piloté par le mathématicien et député de l’Essonne. L’idée d’insérer dans un rapport commandité par l’État des bribes d’imaginaire est en phase avec l’affirmation, page 9, que l’alliance « entre des projections fictionnelles et la recherche scientifique » constitue « l’essence de ce qu’on appelle IA ». Cet apport inédit semble jouer le rôle d’une soupape critique, permettant à des messages potentiellement polémiques de passer en douceur dans le cadre d’un rapport de synthèse, par essence consensuel. Au-delà des principes d’action contre les discriminations ou pour la transparence et « l’auditabilité » des algorithmes, ces courtes fictions suggèrent les utopies et les dystopies, les endroits où ça grince. Où ça coince. Illustration parmi d’autres : nulle part n’apparaissent franchement dans les 230 pages les figures du contrôle social et de sa nouvelle petite sœur : l’auto contrôle de tous par tous « à l’insu de notre plein gré ». Nulle part, sauf dans des sous-entendus et entre les mots parfois ironiques des nouvelles sur fond bleu.

L’actualité n’est pourtant pas avare de tels « e-dérapages ». Faut-il rappeler l’importance cruciale de l’IA version deep learning dans les recommandations de Netflix, de YouTube ou de Facebook ? Fin mars, un article du New York Times a révélé la façon dont les enceintes connectées et assistants domestiques Google Home ou Alexa d’Amazon enregistrent potentiellement tout ce qui se déroule dans la maison. Pour mieux apprendre de nos usages et de nos discussions, et ainsi nous servir au nom de notre bonheur cela va de soi. Les pontes de la Silicon Valley ont beau insister sur la capacité de chacun à refuser l’enregistrement sans un « OK Google » ou un « Hey, Alexa », il y a de quoi douter. Pour preuve : selon un sondage publié en avril 2018 par OpinionWay , « 42% des Français ont peur de ne pas maîtriser leurs données personnelles en utilisant un assistant vocal », tandis que 33% « craignent de devenir dépendant à cette technologie s’ils en utilisent un. » Mais nous n’en sommes qu’à la préhistoire de cette « âge de l’assistance » que nous promet Alphabet, maison mère de Google, grâce à ses IA…

Bien sûr, le rapport Villani se défie de la « domination californienne, qui subsiste dans les discours et dans les têtes, nourrit l’idée d’une voie unique, d’un déterminisme technologique ». Il prône une réappropriation française et surtout européenne de cette intelligence artificielle qui mobilise des sommes astronomiques côté GAFAMI (Google, Apple, Facebook, Amazon, Microsoft, IBM). Mieux : il en appelle à des investissements infrastructurels, régaliens mêmes : l’IA dans la santé, l’écologie, les transports (mobilité) et la défense (sécurité). Les idées fourmillent. La lucidité est au rendez-vous, par exemple sur les obstacles à la transformation de l’administration pour permettre à l’État d’innover et d’assumer des prises de risques, ou sur la nécessité de constituer au niveau européen des « communs » de la donnée. Et pourtant, le document suscite parfois chez le lecteur une certaine frustration, sans trop qu’il ne sache pourquoi.

La partie 3, « Anticiper les impacts sur l’emploi et expérimenter », est symptomatique des limites de l’exercice délicat que constitue la rédaction d’un tel rapport. Les recommandations de ce chapitre sonnent juste, à l’instar de la « formation des talents en IA », de la création d’un « lab public de la transformation du travail » ou de l’idée d’instaurer « un dialogue social autour du partage de la valeur ajoutée au niveau de la chaîne de valeur entière. » Plus étonnant : affirmer, en un clin d’œil aux thèses de Bernard Stiegler , que « l’automatisation des tâches et des métiers peut constituer une chance historique de désautomatisation du travail humain » est assez audacieux. Sauf que l’ensemble masque difficilement un non-dit : quelles sont les sociétés que l’IA, au regard de sa puissance, de sa capacité à susciter le meilleur comme le pire, pourrait ou non contribuer à façonner ? Autrement dit : dès lors que l’on fait le pari de l’intelligence artificielle, devant quels choix de société nous trouvons-nous ? Défendre la transition numérique, cela se justifie. En appeler à la naissance d’une « IA nativement écologique », c’est bien vu. Proposer de fusionner les deux registres, c’est parfait. Mais comment imaginer cette perspective sans une vision de société ? Sans s’interroger, par exemple, sur ce que serait une société « sans emploi », sur l’opportunité ou non d’un « salaire à vie », d’un « revenu universel », d’un « revenu contributif » ou tout autre mode de redistribution prenant acte du fossé entre les pilotes de notre monde d’IA et ceux qui ne pourraient que le subir ou du moins travailler sans, ailleurs ou à côté ?

Car toute programmation suppose un préalable, qui est un a priori de société. Le livre de la chercheuse en science politique Virginia Eubanks, justement titré « Automatiser les inégalités : comment les outils high-tech profilent, policent et punissent les pauvres », montre bien à quel point les algorithmes et l’intelligence artificielle sont biaisées par les motivations de leurs concepteurs et surtout de leurs commanditaires. Comme l’explique Hubert Guillaud dans un précieux article : « En enquêtant sur une poignée de systèmes automatisés développés pour optimiser les programmes sociaux américains, elle dénonce une politique devenue performative… c’est-à-dire qui réalise ce qu’elle énonce. Selon elle, les programmes sociaux n’ont pas pour objectif de fonctionner, mais ont pour objectif d’accumuler de la stigmatisation sur les programmes sociaux et renforcer le discours montrant que ceux qui bénéficient de l’assistance sociale sont, au choix, des criminels, des paresseux ou des profiteurs. »

Le rapport Villani a cette immense vertu de souligner ce type de biais, en phase avec l’enjeu de « sens » de son intitulé. Mais il ne peut en donner des exemples concrets, qui pourraient être mal interprétés par tel ou tel acteur. Car d’une certaine façon, au-delà des fantasmes, ce n’est pas l’IA qui pose problème, mais la société qu’elle crée déjà et qu’elle pourrait fabriquer demain entre des mains mal intentionnées, volontairement ou inconsciemment aveugles aux effets pervers des technologies mariées au marketing le plus sauvage. L’interrogation fondamentale se situe en amont de la technologie : dans notre capacité à utiliser tous les moyens non seulement techniques et économiques, mais surtout sociaux et culturels, pour rendre notre société plus équitable et solidaire. Avec ou sans IA.


Les commentaires

Pour réagir à cet article, je me connecte Je m’inscris

Soyez le premier à réagir !

Les sources de cet article


S’inscrire et participer

Inscrivez vous sur le Digital Society Forum pour commenter et réagir sur les articles et être informé des événements à venir

DSF