Digital Society Forum Digital Society Forum
Et si... ? 30/04/2015

Et si notre désir de tout contrôler de notre vie privée était le poil à gratter des boîtes noires du renseignement ?

Ce gros plan d’une fascinante carte de chiffres est l’une des pièces de l’installation The Algorithmic Trading Freak Show de la plateforme de recherche expérimentale et artistique RYBN. Présentée fin 2014 au Bel Ordinaire dans le cadre de l’exposition et du festival Disnovation, l’œuvre « se compose d’une série de schémas décrivant des algorithmes, rendus publics suite à leur inefficacité avérée. » Parmi lesquels des « robots boursicoteurs ».
Photo © Nagy Gergő
« Boîte noire » : cette drôle d’expression sonne curieusement à nos oreilles connectées d’homo numericus, comme la résurgence inopinée de temps anciens. Comme un souvenir de cette époque lointaine, que nous pensions révolue, où nous n’étions que d’humbles homo sapiens, gouvernés par le secret et des messages s’effaçant subitement pour mieux annoncer quelque Mission Impossible.

C’est autour du 17 mars que l’expression aurait été lâchée par l’une ou l’autre des voix du gouvernement français, dans le cadre de ce que le magazine en ligne Rue 89 décrivait comme « une opération de déminage du projet de loi sur le renseignement ». Ces deux mots sortis d’un film d’espionnage devaient visiblement concrétiser l’idée d’un appareil à installer sur le réseau des opérateurs de télécommunication ainsi que chez les géants du type Google ou Facebook… D’un équipement à même de « détecter, par un traitement automatique, une succession suspecte de données de connexion. »

Mais pourquoi diable parler de « boîte noire » ? Elle est là, opaque. Personne ne la voit. Personne ne sait ce qu’elle contient. Personne ne sait quelles sont ses cibles. Cacherait-elle un crotale prêt à mordre ? Le poil à gratter et les boules puantes d’un paquet de farces et attrapes ? Une pom pom girl virtuelle pour nous séduire et obtenir de nous des renseignements à l’insu de votre plein gré ? Au-delà des opinions de chacun sur ce dispositif de cybersécurité contre le terrorisme, qu’il n’est pas question de juger ici, le symbole est désastreux. Car l’expression malheureuse signifie l’envers de la transparence, de l’ouverture, et du désir de contrôle grandissant des internautes sur les données personnelles. Au lieu de rassurer, elle trouble et inquiète.

Cette expression crée un malaise, parce qu’elle se heurte à la conception que nous nous faisons désormais de la vie privée, que Dominique Cardon décrit dans l’ouverture du dossier Vie privée et données personnelles comme « un phénomène d’individualisation de la vie privée ». Dès lors que « nous ne pensons plus la vie privée comme une norme extérieure et partagée définissant des droits collectifs, mais comme une revendication individuelle, à travers laquelle chacun affirme son autonomie et sa singularité », l’idée d’une « boîte noire » espionnant nos communications nous dépossède de nous-mêmes. Que nous soyons concernés par les enjeux de sécurité, comme le prouvent la plupart des sondages, ne change rien à ce sentiment de dépossession. La métaphore de la « boîte noire » signifie immédiatement la perte de contrôle, et donc l’impossibilité pour les individus de définir eux-mêmes la teneur de leur vie privée « et de ne pas laisser à d’autres le soin d’en décider pour eux ». Elle nous dérobe en conséquence ce qui était hier vécu comme un bien collectif (la vie privée au sens général du terme) et qui devient une liberté (notre vie privée à nous) pour la mettre entre les mains d’un pouvoir auquel nous faisons de moins en moins confiance.

Côté pile, parler de « boîte noire » pour un dispositif sécuritaire sur la Toile dénote d’une croyance dans la toute puissance du calcul à l’ère du Big data. Comme s’il n’y avait aucune faille dans notre vie gouvernée par les algorithmes, telle que la décrit Eric Sadin ou telle que l’étudie depuis longtemps la chercheuse en droit Antoinette Rouvroy.

Côté face, les réactions à cette expression, comme d’ailleurs les analyses d’experts ès logiciels, démontrent à l’inverse qu’il y a toujours de l’humain derrière un algorithme en solo, forcément imparfait au regard de la masse et de la diversité des internautes.

Au-delà de la surveillance étatique , vieille comme les nations qui la pratiquent d’un bout à l’autre de la planète mais nouvellement mise à jour par l’affaire Snowden, les débats autour du projet de loi sur le renseignement soulignent le fossé encore béant entre nos décideurs et les générations du numérique ; entre des têtes d’œuf qui perçoivent la police et plus largement la veille comme une science du contrôle du haut vers le bas, et des rêveurs plus ou moins lucides, tel les chevaliers du P2P de Michel Bauwens , pour lesquels il n’y a meilleure maîtrise que celle que les individus exercent eux-mêmes sur leurs propres collectifs. Après tout, il n’existe nulle caste spécifique d’agents de l’ordre pour régler les nombreux litiges d’un site comme Wikipédia. Chacun, libre de corriger ou d’effacer le texte d’un autre, y est à la fois acteur et policier, participant et surveillant. Ce modèle d’auto-organisation ne pourrait évidemment suffire à identifier les terroristes en passe de commettre un attentat. Mais s’appuyer sur ses mécanismes au nom d’une démocratie plus participative – en se méfiant tout de même des risques de délation – pourrait s’avérer moins dangereux qu’une confiance aveugle en quelque algorithme traquant les mots douteux dans sa boîte noire. Et cette démarche serait symboliquement moins nuisible qu’un appel solennel aux Dieux de la data.


Les commentaires

Pour réagir à cet article, je me connecte Je m’inscris

Soyez le premier à réagir !

Les sources de cet article


S’inscrire et participer

Inscrivez vous sur le Digital Society Forum pour commenter et réagir sur les articles et être informé des événements à venir

DSF