Digital Society Forum Digital Society Forum
Entretien 24/07/2020

QUAND L’IA FAIT SA LOI : « L'Europe pourrait devenir le régulateur mondial en matière d’IA »

Frank Pasquale, professeur à l'école de droit de Brooklyn, ici à la conférence Re:publica de Berlin en 2017 / CC BY SA Martin Kraft
Frank Pasquale est un juriste américain d'un genre particulier : il s'intéresse depuis des années à l'impact des technologies sur nos vies, et réfléchit à des réformes juridiques d'ampleur pour mieux les réguler. Un interlocuteur idéal pour entonner notre nouveau cycle Quand l’IA fait sa loi sur une note internationale.

ll y a cinq ans, le livre Black Box Society mettait en lumière la face sombre de l’innovation. Dans son ouvrage, le professeur de droit Frank Pasquale relevait l’opacité des algorithmes employés par les géants du numérique et le monde de la finance, et appelait à y mettre un terme afin que la technologie serve les citoyens au lieu de se servir d’eux. Sous-titré « Les algorithmes secrets qui contrôlent l’économie et l’information », l’ouvrage alertait sur le danger d’un renoncement collectif à des principes fondateurs du droit : protection de la vie privée, exercice loyal de la concurrence ou encore accès aux informations permettant de se défendre lorsque des décisions nous affectent. C’était avant l’affaire Cambridge Analytica , avant le débat de plus en plus intense autour des biais algorithmiques, avant que les instances de régulation de par le monde ne commencent à prendre conscience de la nécessité de s’assurer de la responsabilité des systèmes techniques. Dans son nouvel ouvrage, New Laws of Robotics, Defending Human Expertise in the Age of AI (Les nouvelles lois de la robotique, protéger l’expertise humaine à l’ère de l’intelligence artificielle), qui paraîtra en octobre, il poursuit son travail de plaidoyer pour une meilleure régulation des algorithmes, seule garante, selon lui, d'un futur autrement plus utopique que celui de son premier opus. Et pour y parvenir, explique-t-il, l’innovation juridique de l’Union européenne pourrait pourtant bien s’avérer décisive dans les années à venir.

Digital Society Forum : Quelles sont les différences principales entre les droits américain et européen en matière de régulation de l’intelligence artificielle ?


Frank Pasquale : Si je devais résumer les choses à gros traits, je dirais que les deux systèmes disposent de solides fondations en matière de régulation de secteurs professionnels précis comme la médecine, l’énergie ou l’éducation. Les deux systèmes juridiques disposent d’un cadre, mais il est parfois difficile aux États-Unis de le faire respecter au regard des nombreuses stratégies légales qui permettent de l’affaiblir ou de le contourner. Je les ai baptisées Les Six Cavaliers de l’Irresponsabilité dans un de mes articles.

Prenons comme exemple le droit à l’oubli [concept juridique qui permet de demander le retrait de certaines informations en ligne qui pourraient nuire à un individu, NDLR]. En Europe, face à un résultat de recherche problématique, faux ou diffamatoire généré automatiquement par de l'intelligence artificielle, par exemple sur Google, tout citoyen possède les moyens juridiques de le faire retirer. Le droit à l'oubli devient, ainsi, une forme de régulation de l'intelligence artificielle agissant derrière les moteurs de recherche. Cependant, aux États-Unis, Google peut se retrancher derrière le Premier amendement de la constitution, celui qui protège la liberté d'expression, pour s'affranchir de cette forme de régulation.

Il existe également une différence fondamentale entre nos deux systèmes juridiques : les Etats-Unis s’appuient sur le régime de la common law, dans lequel le droit s’adapte constamment du fait de la jurisprudence. Cela a-t-il un impact sur la façon d’envisager le cadre de la régulation de l’intelligence artificielle ?


Oui, tout à fait. Nous avons aux États-Unis une forte réticence à articuler une vision, à mettre en place un cadre général au niveau fédéral. Nous réagissons plutôt aux faits qui surgissent au cours de chaque nouvelle affaire. Tout provient du « droit souple », des règles que se fixent les entreprises ou les administrations. Il y a bien quelques propositions de loi, comme celle du sénateur Sherod Brown, intitulée Loi sur la transparence et la responsabilité des données . Il propose qu’au lieu de laisser les entreprises traiter d'immenses bases de données sans se demander ce qu'elles peuvent ou non faire avec, il serait plus intelligent de leur interdire de le faire si elle n'ont pas reçu d'agrément spécifique. Mais rien n’aboutit pour le moment, notamment en raison de la composition actuelle du Sénat.

« L'Europe est probablement en train
de devenir le régulateur mondial
en matière de vie privée »



Depuis 2018, la protection des données personnelles est encadrée en Europe par le Règlement Général sur la Protection des Données personnelles (RGPD). Son adoption a-t-elle eu un impact de votre côté de l’Atlantique ?


L'adoption du RGPD a eu un retentissement énorme au sein de la communauté juridique américaine, notamment dans la finance. En effet, dans ce secteur, beaucoup d’entreprises utilisent de l'intelligence artificielle pour gérer des masses de données, y compris européennes. En fait, l'Europe pourrait bien devenir le régulateur mondial en matière de vie privée et de protection des données personnelles, car si une entreprise ne veut pas avoir à jongler avec une infinité de cadres légaux différents, elle tentera, sans doute, de se conformer aux standards établis par le régulateur le plus en avance sur le sujet. Et aujourd'hui, c'est l'Europe. Ainsi, le RGPD est en train d’influencer, bien au-delà des frontières européennes, la façon d'aborder et de penser la régulation de l'intelligence artificielle.

Dans le dernier chapitre de votre précédent ouvrage, vous avez proposé aux instances de régulation un certain nombre de recommandations afin de résoudre les potentiels problèmes posés par le déploiement des technologies d’intelligence artificielle. Ont-elles été suivies ces cinq dernières années ?


La situation politique aux Etats-Unis n’a pas permis d’avancer sur ce sujet au niveau fédéral. En revanche, dans certains Etats, les choses ont évolué. La Californie s'est dotée d'une loi sur la protection des données personnelles et la division new-yorkaise des services financiers a fait progresser son cadre légal autour des données. Mais, globalement, les problèmes n’ont fait qu'empirer depuis la publication de mon livre. La réponse de nos dirigeants n’est clairement pas à la hauteur. Leur interprétation de la loi favorise les grandes entreprises et renforce les velléités de contrôle et de surveillance de l'Etat. Et la situation risque de s’enliser puisque les juges fédéraux nommés par l’administration Trump vont rester en place pendant des dizaines d'années...

Face à ce statu quo, seriez-vous favorable à la création d’un équivalent de l’ONU ou de l’OMS afin de réguler l’usage des algorithmes et de l’intelligence artificielle au niveau mondial ?


C'est une excellente idée, mais qui aurait le contrôle d'une telle organisation ? Quel État y serait le plus puissant ? Nul doute que les Etats-Unis, la Chine et la Russie pèseront de tout leur poids pour empêcher l'Europe et d'autres pays de faire progresser la régulation sur l'usage de l'intelligence artificielle vers un plus grand respect des libertés des citoyens et une meilleure protection des consommateurs. Ainsi, une telle organisation risquerait de restreindre l'influence de l'Europe plutôt que d'augmenter le niveau de protection des citoyens dans le monde. L'année dernière, lors d’un congrès autour du futur de l'intelligence artificielle en Australie, j’ai pu observer la façon dont les délégations chinoises argumentent en faveur d’une extension des usages de ces technologies au détriment des droits et libertés de leurs citoyens. Elles expliquent, par exemple, que la reconnaissance faciale permet d'arrêter les responsables de kidnappings. Evidemment, il y a d'autres approches pour empêcher de tels actes sans contrôler massivement l'ensemble de la population, mais il est difficile de raisonner sereinement face à ce type d’argument émotionnel. Et, ils ne sont pas les seuls à opérer de la sorte.

« A-t-on vraiment envie de déployer
des systèmes qui peuvent reconnaître
tout le monde dans la rue ? »



Depuis quelques temps, vous évoquez une « seconde vague de la responsabilité algorithmique » en vous inspirant des travaux des chercheuses Julia Powls et Helen Nissenbaum. Pouvez-vous nous en dire davantage ?


La première vague de critiques à l'égard de la reconnaissance faciale visait à dénoncer les biais derrière cette technologie. Par exemple, le fait que les algorithmes ne reconnaissent pas, ou mal, les femmes noires. L'idée était donc d'intégrer plus de femmes noires dans les bases de données afin que les technologies les reconnaissent mieux. La deuxième vague interroge l'utilité-même de la reconnaissance faciale. A-t-on vraiment envie de déployer des systèmes qui peuvent reconnaître tout le monde dans la rue au mépris de nos libertés ? La question commence aussi à se poser avec le développement de l'informatique affective, c’est-à-dire la capacité informatique de reconnaître ou de synthétiser les émotions humaines. Certains seront sans doute séduits par le fait qu’un ordinateur réagisse à leur humeur, mais je pense que l'immense majorité d'entre nous sera plutôt inquiète à l'idée que des systèmes informatiques tentent de deviner nos émotions pour s’y adapter voire pour en tirer profit en nous manipulant. Sur ce sujet comme sur d’autres, les utopies de certains sont les dystopies des autres.

Êtes-vous alors favorable à un moratoire sur l’utilisation de la reconnaissance faciale ?


Plutôt qu’un moratoire, il s’agirait de donner un cadre d’application à la reconnaissance faciale, l'interdire dans certains contextes et l'autoriser dans d'autres. En effet, je peux envisager un futur dans lequel il existe une base de données destinée à la reconnaissance faciale, mais seulement si la loi précise qu'elle peut uniquement être utilisée pour arrêter des individus suspectés de terrorisme ou des personnes qui ne respectent pas la quarantaine imposée en temps de pandémie, et non pour des délits mineurs. Il s'agirait, pour moi, d'une forme de régulation raisonnable, mais cette idée est loin d’être partagée par tous, quelque soit la position sur l'échiquier politique.

Vous évoquez la pandémie qui frappe en ce moment l’humanité. Pour certains, elle démontre le fait que nous avons besoin d’encore plus de bases de données centralisées pour pouvoir lutter contre la circulation du virus. Vos souhaits de régulation ou d’interdiction ne sont-ils pas anti-progrès ?


Il ne s'agit pas d'être anti-technologie, mais plutôt d’interroger collectivement le développement d'un certain type de technologie. On peut faire un parallèle avec les débats qui agitent certains cercles économiques. Certains pensent que tout doit être fait pour augmenter le PIB. Et si on s’appuie sur cet indicateur, il vaut mieux vivre aux États-Unis qu'en France. Cependant, dès lors que l'on considère le niveau de protection sociale, la France devient plus attractive que les États-Unis. Ainsi, tout dépend du point de référence. Il ne s'agit pas de produire toujours plus de technologie, quel que soit son impact, mais plutôt de se demander quel type de technologie nous souhaitons développer et dans quel but, par exemple, pour en revenir à mon parallèle, plus de croissance ou plus de protection ? C'est aujourd’hui la grande question.

Une autre question qui se pose quand on évoque l’intelligence artificielle est celle de l’automatisation. Dans votre nouveau livre, vous tentez de démontrer comment la loi et la régulation peuvent garantir la prospérité pour tous.


Les lois de la robotique , telles qu'elles ont été écrites par l’auteur de Science Fiction, Isaac Asimov, servaient à protéger le bien-être des humains. Les lois que j'ai imaginées ont, elles, pour objectif de protéger l'expertise et le pouvoir propres aux êtres humains. Il est, selon moi, essentiel que les humains gardent le contrôle dans tous types de situations. Il m’est difficile d'envisager une forme de travail qui ne sera pas au moins en partie automatisée. Les métiers physiquement difficiles et dangereux vont sans doute l'être, et c'est tant mieux. En revanche, on peut intégrer de la robotique et de l'intelligence artificielle dans le travail sans pour autant remplacer les travailleurs. Ma première loi impose, donc, que les robots complètent le travail humain plutôt qu’ils ne le remplacent. Cela est possible si l’on considère que ce sont les capacités cognitives des individus qui façonneront le travail de demain. L'objectif de mon livre est d’accompagner ce mouvement d’automatisation du travail en montrant comment nous pouvons préserver certains secteurs essentiels en réaffirmant l’importance de l’humain par rapport à ce que peuvent indéniablement apporter les machines.

« Il faudrait commencer par traiter la robotique
et l'intelligence artificielle comme
on traite l’accès aux médicaments »



En attendant que vos lois s’appliquent, quels conseils pourriez-vous donner une nouvelle administration américaine ?


C'est une question difficile. Il faudrait commencer par traiter la robotique et l'intelligence artificielle comme on traite l’accès aux médicaments, en mettant en place un système qui permette d'évaluer ces technologies avant leur mise sur le marché. Les entreprises qui créent de l’intelligence artificielle seraient alors dans l’obligation d'obtenir une certification qui aurait pour base les principes de sécurité, d’efficacité et de non-discrimination.

Ensuite, il faudrait sérieusement s'attaquer à une régulation plus intelligente des médias et de la circulation de l’information devenue en partie automatisée par l’action des algorithmes des réseaux sociaux. Le phénomène des fake news et l’utilisation inconsidérée des données dans leur propagation mettent en danger les systèmes démocratiques. On a eu l’occasion d’en prendre conscience lors du Brexit ou de l’élection de Donald Trump. Il est, alors, temps de réguler Google et Facebook, ces deux entreprises qui se sont développées comme des parasites au regard du reste du contenu présent sur Internet et qui ont été l’instrument politique du concept de post-vérité. Autoriser comme on le fait ces deux mastodontes à racheter de nombreuses entreprises afin de se créer des empires qui confinent aujourd’hui au duopole est une hérésie. Nous avons une loi antitrust aux États-Unis. Elle n’est certes pas parfaite, mais surtout les gens qui l’appliquent se contentent des vieux modèles sans s’intéresser aux évolutions de l’économie, du droit ou des sciences sociales. Démanteler Google et Facebook serait un signal fort d’une reprise en main du politique, et du droit, sur nos vies numériques.


DU TAC AU TAC : l'éclairage de Stanislas



Doctorant au sein du laboratoire SENSE à Orange Labs et spécialiste des dispositifs de gouvernance de l'intelligence artificielle, Stanislas Renondin De Hauteclocque nous offre son éclairage avisé sur les articles de l'ensemble de notre cycle. Nous lui avons soumis deux des affirmations de Frank Pasquale, auxquelles il réagit... du tac au tac.

L'Europe est-elle en train de se positionner comme futur régulateur mondial de l'IA ?

Stanislas Renondin De Hauteclocque : Les premières tentatives de faire émerger un « droit de l’intelligence artificielle » sont apparues en France dès les années 1990, toutefois, les bouleversements sociotechniques qu’amène cette technologie dépassent largement le cadre national. Les approches afin d’encadrer juridiquement l’IA se sont donc multipliées aussi bien sur le plan international qu’européen.

On estime actuellement à plus de 200 le nombre de chartes, textes et autres propositions émanant d'institutions ou d'entreprises désireuses de promouvoir cette technologie, et donnant un cadre « éthique » à l’intelligence artificielle. Nous sommes face à un véritable risque d’ « ethic washing ». Néanmoins, l’éthique de l’IA reste un formidable moyen de rassembler les différents acteurs engagés dans l'IA afin que tous ensemble ils puissent co-construire le cadre normatif le plus adapté à ce nouvel objet technique.

Plusieurs grandes conférences et recommandations structurent ce mouvement éthique de l'IA : les conférences d’Asilomar de l’IEEE ainsi que les recommandations de l’OCDE ont fait émerger des principes majeurs : la bienfaisance, la non-malfaisance, la justice, l’autonomie, la loyauté et la transparence. Ces principes ont l’avantage d’être suffisamment souples pour s'adapter dans la majorité des législations nationales et font référence à des droits préexistants qui ont une portée universelle (droit des sciences ou de la médecine, droits de l'Homme).

C’est dans ce contexte que l’Union européenne s’est emparée de ces sujets. Dès 2017, l'UE a lancé une consultation avec l’ensemble des acteurs privés et publics sur la question de l’intelligence artificielle. Néanmoins, ce document restait incomplet et faisait référence à de nombreux clichés et fantasmes liés à cette technologie. L’UE a donc poursuivi ses travaux en cherchant à minimiser l'insécurité juridique liée à l’intelligence artificielle tout en permettant aux entreprises européennes d’innover dans ce secteur stratégique. Ainsi, un groupe d'experts missionné par l'UE a rendu un rapport comprenant 7 principes qui devraient guider les futures propositions réglementaires de l’Union européenne. En effet, en février 2020, une large consultation aussi bien au niveau du Parlement européen qu’au niveau de la commission a été lancé sur la base de ce rapport et a donné lieu à un livre blanc sur l’intelligence artificielle .

L’Europe, au travers de ce processus de co-construction, a permis d’y voir beaucoup plus clair dans ce qu’on appelle le « droit de l’IA ». Néanmoins, nous sommes encore loin de l'adoption d’un règlement sur la question. Il faudrait en effet non seulement travailler sur un règlement spécifique à l’intelligence artificielle, mais aussi adapter d’autres directives afin de garantir le maximum de sécurité juridique pour le citoyen européen. L’Union européenne devra également faire avec les spécificités de chaque État membre. Si l’on considère (à raison) que les États européens possèdent un socle de valeurs communes, il n’en est pas de même lorsque nous comparons les jurisprudences ou lois nationales. Enfin, l’Europe devra trouver le moyen de faire appliquer ses règles au-delà de ses frontières, car il serait impensable qu’une entreprise étrangère cherchant à pénétrer le marché européen n’ait pas les mêmes obligations qu’une entreprise de l’Union. À la question de savoir si l’Europe peut devenir la future régulatrice mondiale de l’IA, nous ne pouvons donc qu’attendre et observer. Elle sera dans tous les cas jugée sur sa capacité politique à adapter ses règles juridiques et surtout sur les moyens qu'elle mettra en place afin de garantir leur effectivité au sein de ses frontières, mais aussi au-delà.



« Créer des agences de l'IA à la manière des agences nationales des médicaments, une bonne idée ? »


Je suis d’accord avec le professeur Pasquale quand il dit qu’il faudrait « commencer à traiter l’accès à l’intelligence artificielle comme on traite celui aux médicaments ». Le droit actuel n’est pas suffisant pour se prémunir de tous les dangers liés à une utilisation abusive de l’IA. Si l’on s’inspire de l’existant quant à la régulation des médicaments, on pourrait rapidement mettre en place des processus de certifications. Ils permettront d’évaluer à la fois les bases de données et les algorithmes lorsqu’ils sont utilisés dans des contextes à risques tels que l'emploi, la santé, ou encore la finance. Si tel était le cas, nous aurions la possibilité non d'interdire toute la technologie, car ce serait utopique, mais d'empêcher certaines briques d’IA d'être utilisées dans un contexte où elles pourraient se révéler dangereuses.

Néanmoins, je pense que la création « d’agences de l’IA » est une mauvaise approche pour deux raisons. La première, c’est qu’à la différence des médicaments ou nous pouvons assez vite comprendre les effets dangereux pour la santé, l’intelligence artificielle n’est pas encore assez définie scientifiquement comme juridiquement pour que l’on stabilise la notion de risque. Et la création d’agences État par État ferait apparaître une multiplication des définitions et des approches juridiques à un point où plus personne ne pourrait travailler avec personne.

La deuxième raison, mais elle est plus politique que juridique, c’est qu’il existe déjà des agences qui peuvent prétendre à ce rôle comme la CNIL ou l’EDPS . Elles ont déjà l’expérience en matière de données personnelles et vie privée et pourraient avec plus de moyens très bien s’occuper des questions spécifiques à l’IA.







Les commentaires

Pour réagir à cet article, je me connecte Je m’inscris

Soyez le premier à réagir !

S’inscrire et participer

Inscrivez vous sur le Digital Society Forum pour commenter et réagir sur les articles et être informé des événements à venir

DSF