Digital Society Forum Digital Society Forum
Focus 08/10/2019

Ce que nous apprennent les catastrophes technologiques

Le 2 décembre 1986, la navette spatiale Challenger explose peu de temps après le décollage, tuant les sept personnes à son bord. (NASA, domaine public )
Comment se déploie une technologie ? Dans quels rapports de pouvoirs s'inscrit-elle et quelles populations prend-elle en compte ? Dans un ouvrage non traduit en français, la sociologue américaine Sheila Jasanoff revient sur de grandes catastrophes technologiques pour montrer combien le déploiement d'une technologie reflète toujours des rapports de pouvoir et appeler à plus de régulation et d'écoute des citoyens.

Si la science a participé à l’allongement de la durée de vie et à une meilleure connaissance du monde, il convient de ne pas se mettre des œillères : la civilisation technologique n’est pas toute rose. Parmi les griefs qu’on peut lui faire : un appétit insatiable pour les matières premières, une destruction relative du sens de la communauté et des catastrophes en tous genres (chimiques, nucléaires, numériques), qui touchent avant tout les plus démunis. Pour la sociologue américaine Sheila Jasanoff , ces impacts sociaux sont trop rarement pris en compte.

Dans son ouvrage The Ethics of invention, technology and the human future , la professeure de Science and Technology Studies (STS) à la Harvard University's John F. Kennedy School, connue pour ses travaux sur les liens entre les sciences, la loi et les enjeux publics, dissèque quelques grandes catastrophes technologiques du vingtième siècle. Elle pointe ce qui pèche dans le déploiement de certaines technologies : le manque d’organismes démocratiques de régulation (notamment internationaux), et une conception erronée de ce que l’homme peut attendre des sciences et des techniques.

Mettre fin au mythe de la technologie neutre


Pour Jasanoff, la technologie ne se limite pas à l’électronique, aux smartphones et aux logiciels. Ainsi, son étude aborde aussi bien les grandes controverses liées aux OGM que la biologie de synthèse, le séquençage ADN ou encore la conquête spatiale.
Première brique de son raisonnement, une révision en bonne et due forme des mythes entretenus autour de la technologie : celle-ci serait faite d’objets neutres et inanimés, dont l’évolution suivrait un processus naturel qui accoucherait automatiquement et systématiquement du « progrès ». Celui-ci se résumant grossièrement à une société plus sûre, pacifique, efficace, en un mot : souhaitable. Pour Jasanoff, il faut profondément nuancer ce propos : la technologie pénètre nos corps, nos esprits et bouleverse nos pratiques sociales. Ce faisant, elle ouvre des chemins nouveaux et inconnus mais ne détermine aucunement l’avenir à elle seule et ne façonne pas nécessairement un futur vertueux pour le plus grand nombre.

Au fameux « Why the future doesn’t need us » , un article de l'informaticien Bill Joy publié en 2000 dans le magazine américain Wired dans lequel l’auteur postulait une technologie autonome qui laissait finalement peu de place à l’action humaine, Jasanoff oppose le texte du théoricien politique et philosophe des techniques Langdon Winner  : « Do Artefacts have politics ? » , où celui-ci rappelle que les objets techniques sont pétris de valeurs humaines. Un simple feu de circulation par exemple, pose toute une série de questions : comment a-t-il été paramétré ? Qui a décidé du temps alloué aux voitures et aux piétons ? A-t-on pris en considération l’état physique des personnes traversant la rue ? Nous nous posons trop souvent ces questions après qu’un accident ait eu lieu. Alors même que la technologie gouverne nos pratiques, il semblerait que nous ne prenions pas le temps de l’envisager comme ce qu’elle est : une forme de loi.

Si la technologie n’est pas neutre, les risques qu’elle est susceptible de produire ne le sont pas non plus. D’abord, ceux-ci ne se diffusent pas toujours équitablement dans la population : les grandes catastrophes, comme l’explosion d’une usine chimique à Bhopal en 1984, touchent avant tout les populations les plus pauvres. De plus, toutes les populations du monde n’ont pas le luxe de pouvoir refuser une technologie ou une installation dangereuse à côté de chez elles. Enfin, rappelle la chercheuse, le risque s’arrête trop souvent à ce qui est mesurable scientifiquement. Sont oubliées toutes les choses qui n’entrent pas dans les calculs : les effets systémiques (par exemple, un conducteur de train qui pianote son téléphone, comme le fit Martin Sanchez à Los Angeles en 2008, tuant 24 personnes dans un accident). Les modes d’appropriation d’une technologie peuvent également produire de mauvaises surprises, quand par exemple les notices de prévention de nombreux pesticides écrites en anglais empêchaient les fermiers non anglophones de les lire.

Ce que les désastres nous apprennent


Selon Jasanoff, l’étude des catastrophes technologiques nous enseigne que c’est souvent le manque de prise en compte des savoirs non-experts qui produit des accidents. Car, rappelle-t-elle, la connaissance s’inscrit toujours dans des rapports de pouvoir, qui tendent justement à invisibiliser ces savoirs. De simples briquets par exemple, ont tué des milliers de personnes dans le monde au cours des années 1980 et 1990, dans le silence le plus total. Ce n’est que lorsque que des victimes se sont mises à s’organiser pour attaquer en justice les fabricants que les choses commencèrent à évoluer. Devant la contestation et la multiplication des plaintes, l’industrie fut forcée d’adopter des standards plus stricts tenant compte des accidents passés. Un des grands défis aujourd’hui consiste, selon Jasanoff, à faire dialoguer experts et profanes lors de la conception et du déploiement d’objets et d’infrastructures techniques. Pour y arriver, explique-t-elle, nous devrions nous départir d’un mode de pensée qui place l’expert au-dessus du citoyen lambda, ignorant au passage son expérience et sa capacité à pointer les défauts ou les manquements d’une technologie qui le concerne au premier plan. Bien sûr, il ne s’agit pas de demander au premier quidam de valider la diffusion d’un nouveau médicament sur le marché, cependant, croire que la vie moderne est trop compliquée pour être appréhendée par le citoyen ordinaire – relent d’un saint-simonisme tenace – laisse la chercheuse sceptique.

Les deux autres catastrophes qui viennent illustrer les effets pervers des asymétries de pouvoir dans le champ scientifique sont les explosions des navettes spatiales américaines Challenger en 1986 et Columbia en 2003. Ces deux désastres furent longuement étudiés, et comme le rappelle Jasanoff, de nombreux ingénieurs étaient parfaitement informés des avaries, bien avant les accidents. Dans les deux cas, ils avaient prévenu que les choses pouvaient mal tourner, mais ils ne furent pas écoutés. Roger Boisjoly, par exemple, un ingénieur travaillant pour Morton Thiokol, un fournisseur de la navette Challenger, s’était opposé au lancement par un temps si froid — un facteur supplémentaire qui contribua à l’explosion.

Il est possible d’un tirer au moins deux enseignements. D’une part, la simple connaissance d’un problème ne suffit pas à le résoudre : encore faut-il que les personnes qui le signalent pèsent suffisamment dans le processus de production. Le savoir n’est rien s’il n’est pas accompagné par un rapport de force favorable. D’autre part et contrairement à ce qui est souvent avancé, les accidents ne sont pas que le fruit du hasard (des « conséquences inattendues », une formulation que récuse la chercheuse), mais le résultat de choix ou de non-choix bien humains. Seulement, ces choix sont plus ou moins volontairement masqués, ce qui tend à invisibiliser les sources et les effets des menaces. C’est l’« irresponsabilité organisée » qu’Ulrich Beck décrivait dans La société du risque (1986). Conséquence : dans certains cas, ces événements qualifiés de « low probabilities, high consequences events » finissent par tuer des gens qui n’ont pas eu grand-chose à dire dans la chaîne de production qui a scellé leur destin.

Trop peu de prise en compte des paroles citoyennes


La catastrophe de Bhopal évoquée plus haut, est un autre exemple tragique qui illustre la non prise en compte des habitants dans l’élaboration d’infrastructures techniques. Cette catastrophe fut la conséquence de l'explosion d'une usine d'une filiale de la firme américaine Union Carbide qui produisait des pesticides et qui dégagea 40 tonnes d'isocyanate de méthyle dans l’atmosphère de la ville. 3828 personnes moururent dans leur sommeil (plus de 20 000 selon les associations de malades). Des dizaines de milliers de personnes furent handicapées à vie. Non seulement les habitants de cette ville n’eurent jamais l’opportunité de s’exprimer lors du processus de construction des infrastructures techniques, mais leurs voix ne furent que très que peu prises en compte lors du procès qui succéda au désastre. En effet, après quelques tribulations politiques, celui-ci fut tenu en Inde et non aux Etats-Unis, où le système de « class-action » (actions de groupe) aurait pu permettre de faire pression sur l’entreprise. Des trois milliards de dollars de dédommagements qui furent demandés par l’Etat indien, les Etats-Unis n’en donnèrent qu’un petit 15%, bien insuffisant pour compenser les pertes humaines et autres conséquences d’une explosion qui aura concerné plus ou moins directement des centaines de milliers de personnes. L’histoire de Bhopal, comme celle de l’immeuble Rana Plaza, qui s’effondra le 24 avril 2013, emportant avec lui 1127 personnes, montre à quel point les victimes de la société du risque sont bien souvent les plus vulnérables. A cela s’ajoutent les asymétries juridiques entre nations, certains sont mieux protégés que d’autres, ce qu’ont bien compris certaines entreprises adeptes du dumping social, éthique et juridique.

Le manque d’attention porté aux questions citoyennes ne se limite pas aux choix d’infrastructures lourdes. Il en va de même dans le monde des biotechnologies et notamment du séquençage ADN. En 2004, un adolescent conçu à partir d’un échantillon de sperme décida d’en savoir plus sur ses origines. Il envoya à un organisme spécialisé un échantillon de son propre ADN et reçut neuf mois plus tard, pour 289 dollars, des informations sur deux profils désignés comme ses proches parents. En recoupant ces données avec les informations qu’il avait déjà sur son père, notamment sa ville de naissance, il parvient retrouver l’identité du donneur qui n’avait pourtant jamais consenti à ce qu’on le retrouve, ni même accepté de figurer dans aucune base de données.

Et le numérique n’est pas en reste, Jasanoff nous remet en mémoire cette expérience qu’avait conduit Facebook en 2012 auprès de 700 000 de ses utilisateurs. En modifiant le contenu affiché sur le Newsfeed (le « mur » Facebook), la société avait déclaré être en mesure d’altérer le tempérament de ses clients. Ceux qui voyaient plus de contenus positifs avaient tendance à produire eux-mêmes plus de contenus positifs, et ceux qui recevaient plus de contenus négatifs faisaient l’inverse. A aucun moment les sujets de l’expérience n’eurent conscience de participer à cette « étude » grandeur nature. Alors qu’une page Wikipédia recense les critiques faites à Facebook, Jasanoff nous rappelle que les Etats-Unis manquent cruellement d’institutions à même d’encadrer ces pratiques.

Quelles instances d’encadrement ?


Devant la multiplication et la complexification de ces phénomènes touchant à diverses technologies et sphères de la vie sociale, l’évaluation et la régulation des technologies s’avère une tâche difficile. Jasanoff constate une recrudescence des comités d’éthique, tout en regrettant leur manque d’indépendance et leur tendance à ne pas déranger le « business as usual ». Chez Google par exemple, le comité d’éthique sur l’intelligence artificielle fut l’objet de vives critiques venant de l’intérieur. Pour la chercheuse, la prolifération de ces corps a en partie supplanté l’idéal démocratique, au profit d’une vision technocratique soumise aux injonctions de l’industrie. Bien sûr, des organes de régulation existent, notamment à propos des questions sanitaires. Cependant, à en croire Jasanoff, rien ne vient aujourd’hui prendre la place de ce que fut par exemple l’Office of Technology Assessment (OTA), organisme créé en 1972 aux Etats-Unis et qui produisit plusieurs centaines de rapports de grande qualité. Sa mission : éclairer le congrès d’analyses les plus objectives et dans la mesure du possible « comprendre et anticiper les conséquences des technologies, afin notamment de les déployer en cohérence avec les politiques publiques et les problèmes de la nation. » L’OTA fut cependant en proie à des luttes partisanes qui signèrent rapidement son arrêt de mort. En cause notamment, un rapport publié pendant l’ère Reagan et très critique envers l’initiative « Star Wars », un projet de défense anti-missile destiné à la protection des Etats-Unis contre une éventuelle frappe nucléaire, et estimé à plus de 20 milliard de dollars. En 2016, le magazine Wired regrettait l’existence de l’OTA qui à son acmé, bénéficiait d’un budget de 20 millions de dollars.
A l’heure où les questions de vie privée ré-émergent dans un contexte numérique florissant, l’OTA pourrait, selon Jasanoff, trouver une utilité, alors même que le vieux continent semble avoir pris la tête du combat éthique en matière numérique. En 2015, un amendement fut porté par un sénateur pour doter l’OTA d’un budget de 2,5 millions de dollars, en vain.

D’autres modes d’organisation du débat public sont évoqués par la chercheuse. Notamment les conférences citoyennes, telle que le « GM Nation ? » : un large débat sur les OGM mené au Royaume Uni en 2003. Plus de 600 rencontres citoyennes eurent lieu, à l’initiative de l’Agricultural and Environment Biotechnology Commission (AEBC). Le verdict fut plutôt clair : 95% des personnes consultées s’inquiétèrent de la contamination par les OGM d’autres plantes. Seulement 2% y furent réellement favorables. La plupart des participants pointèrent le manque d’indépendance des experts et montrèrent des doutes quant à l’efficacité de cultures OGM. Ce modèle de discussion ne fut pas poursuivi ni réitéré, les défenseurs des biotechnologies accusant le forum de rassembler trop de forces anti-technologiques, les opposants critiquant le gouvernement qui selon eux n’aurait jamais réellement souhaité tenir compte des avis prononcés. A l’heure où la France ouvre une large consultation autour du climat, qui mobilise 150 citoyens tirés au sort, ce constat devrait nous interroger : quelles garanties pouvons-nous donner aux recommandations citoyennes ? Peuvent-elles seulement aboutir, dans la mesure où elles pourraient aller à l’encontre de politiques décidées par un gouvernement en place ?

L’ouvrage de Sheila Jasanoff ne s’encombre pas faux espoirs, son constat est plutôt sans appel : la dialogue et la concertation ne parviennent pas ou si peu, à inverser la logique libérale des marchés. Lorsque des initiatives institutionnelles émergent pour démocratiser des choix technologiques, elles se heurtent à des agendas politiques qui les freinent, ou sont organisées dans le seul but de générer de l’acceptabilité. Ce sont des « espaces d’expression sans conséquence », pour reprendre la formule de la sociologue Sara Aguiton, qui livrait les mêmes conclusions dans son ouvrage La démocratie des chimères, gouverner la biologie synthétique. La participation démocratique au choix du progrès reste pourtant un sujet qui revient très souvent en sociologie des sciences et les conclusions de Jasanoff, comme les travaux de Michel Callon sur la « démocratie technique », ravivent d’anciennes conclusions sur la marche du progrès.
L’une d’entre elle atteste du fait que rien ne se fait naturellement en matière technologique : quand ce ne sont pas les accidents et autres catastrophes qui dévoilent les terribles asymétries informationnelles dans les choix technologiques, ce sont des populations qui se mobilisent, qui contestent et influent sur le cours des choses. L’autre enseignement est que le flétrissement progressif des formes du débat finit toujours par avoir des répercussions, soit via de nouveaux accidents, soit sous forme de nouvelles contestations. Celles-ci demeurent d’ailleurs très vives et dans tous les domaines. Du point de vue énergétique par exemple, avec les zadistes et autres opposants aux « grands projets inutiles » , ou encore chez les habitants de Bure, où Cigeo souhaite enterrer les déchets nucléaires français. En matière numérique, la contestation est également partout, du « Techlash » américain qui commence à remettre en cause le pouvoir des GAFA, aux protestations locales, comme à Toronto, contre un projet de Smart-City impulsé par Google.

Dans un environnement technologique qui se complexifie, il convient donc d’interroger à la fois les conditions de production des technologies, et les formes du débat qui devraient permettre de réaliser de véritables allers-retours entre l’industrie et le citoyen — sans quoi les foyers de contestation risquent, encore et encore, de se multiplier.


Les commentaires

Pour réagir à cet article, je me connecte Je m’inscris

Soyez le premier à réagir !

S’inscrire et participer

Inscrivez vous sur le Digital Society Forum pour commenter et réagir sur les articles et être informé des événements à venir

DSF