Digital Society Forum Digital Society Forum
Et si... ? 28/11/2018

Et si les robots tueurs étaient les véritables assassins de notre civilisation ?

Black Sheep (2006 – La nuit des moutons en français), du réalisateur Jonathan King, est sans doute l’un des rares films d’horreur impliquant des moutons. Un synopsis savoureux : quelque part en Nouvelle-Zélande, des activistes écologistes libèrent un agneau ayant subi des mutations génétiques, il contamine le reste du troupeau qui viendra transmettre l’infection aux humains lors de combats épiques dignes d’un Massacre à la tronçonneuse. Black Sheep est aussi le seul film mettant en scène un mouton se jetant d’une falaise après une folle course en 4x4. Enfin, ce film devenu culte est l’occasion de nous rappeler que la plus douce des créatures peut se transformer en redoutable prédateur.
Pas une semaine ne passe sans qu’un média n’attaque de front le sujet des robots autonomes ou « robots tueurs ». Ici les premiers pas d’un chien mécanique en terrain boueux, là un drone miniature capable de transporter une charge explosive. Les SALA, pour « Systèmes d'armes létales autonomes », font cliquer. Mais là n’est pas leur seul objectif, qui se résumerait plutôt ainsi : faire proprement le sale boulot. Tuer l’autre, mais rationnellement. Selon Elon Musk – autant dire selon le Christ lui-même – il faudrait interdire ces machines. Pour d’autres, il suffirait de les rendre « éthiques ». Au-delà de ce clivage, deux questions de fond sont plus rarement posées : que gagne-t-on quand on gagne une guerre avec des robots ? Et surtout, que devient-on ainsi ?

Avant d’enclencher ce réquisitoire à peine dissimulé, prêtons-nous à un court exercice de définition. Qu’entend-on par robots tueurs ? Une multitude d’objets en réalité, petits et gros, dont les caractéristiques principales sont d’être dotés d’effecteurs létaux et de l’aptitude à prendre en toute autonomie la décision de tuer. À ce stade de l’Histoire, il est encore difficile de réellement savoir quels pays disposent ou non de véritables robots tueurs. Les Sud-coréens sont connus pour utiliser le SGR-A1 pour surveiller la frontière (un robot capable d’identifier et d’éliminer une cible automatiquement à 3,2 km de distance – de la marque Samsung, comme votre téléphone). Côté israélien, le Guardium permet des missions équivalentes. Les Américains avancent puis reculent : leurs drones sont depuis longtemps dopés à l’intelligence artificielle (ce qui ne les rend pas pleinement autonomes), mais l’armée a récemment requalifié un Boeing autonome en avion de ravitaillement. N’oublions pas les Russes, qui cultivent les effets d’annonce, la guerre restant ce grand concours de « celui qui pisse le plus loin ».

Passons maintenant aux justifications. Pourquoi souhaite-t-on automatiser la guerre avec des robots tueurs ? Pour Eric Martel, chercheur associé au LIRSA (CNAM), la raison serait à chercher dans la guerre du Vietnam. L’Oncle Sam n’aurait pas tiré les bonnes leçons de la défaite. En cause notamment, le nombre de victimes parmi les G.I. et la vive opposition au conflit, qu’on retrouve parfaitement illustrée dans le film Forest Gump. Bref, l’armée tire la conclusion suivante : dès lors que le souci de toute guerre est le nombre de morts (de son côté), il suffirait de mettre la guerre à distance grâce à l’automatisation des frappes pour le réduire... Ceci explique notamment pourquoi les États-Unis déploient massivement, et ce depuis vingt ans, des drones truffés d’électronique au Pakistan, en Somalie, au Yémen ou en Afghanistan. Des modes opératoires qui font polémique : on accuse ces armes de contrevenir aux règles du droit international humanitaire (DIH), et notamment au principe de discrimination qui demande à distinguer civils et militaires. Plus concrètement et selon les chiffres du « Bureau of Investigative Journalism », sous les deux mandats d’Obama, entre 384 et 807 civils aurait été tués par des frappes de drones dans les pays précités. Bien sûr, chacune de ces erreurs est l’occasion pour les groupes terroristes de recruter davantage.

Venons-en au cœur du sujet. Les armes autonomes et autres robots tueurs sont dans les cartons et – si personne ne les arrête – risquent de prolonger cette vision de la guerre tout à fait particulière, en cela qu’elle consiste à déléguer le travail aux machines. Seconde spécificité : cette guerre moderne ne connaît de limite ni dans le temps ni dans l’espace (car après tout, rien n’empêche d’imaginer des « cyber-robots-tueurs »). Elle est plutôt un état permanent, une « gestion » de conflits qui tendent à muter en insurrections qui n’en finissent pas. Si la victoire consiste à dominer totalement son adversaire, force est de constater que ce modèle s’érode. Les « victoires » sur l’Irak ou la Lybie donnent lieu à de nouveaux conflits au cours desquels des alliés d’hier s’affrontent. En Afghanistan, les frappes ciblées n’empêchent pas les Talibans de progresser… Dans ces pays, les États-Unis sont perçus comme lâches, incapables de dépêcher leurs troupes, leur préférant une guerre téléguidée par des boyscouts dans des bunkers au Kansas, façon jeu vidéo. Demain, fantassins électroniques, essaims de drones explosifs et autres cuirassés autonomes ne feront que renforcer ce sentiment de défiance envers les « grandes démocraties libérales », qui semblent-ils, abandonnent l’idée de donner la preuve par l’exemple. Les robots tueurs, comme la peine de mort ou encore le recours à la torture, auraient pour effet majeur d’annihiler tout désir de démocratie dans un très hypocrite « faites ce que je dis mais ne faites pas que ce que je fais ».

Plus pernicieux, il y a la manière dont ces armes transforment les belligérants dans leur rapport à l’ennemi. Non pas qu’il y ait dans la guerre « d’homme à homme » un supplément de dignité (la guerre est terrible dans tous les cas), mais dans l’homme subsiste une qualité : celle de « s’empêcher ». Comme le rappelait le philosophe Grégoire Chamayou dans son ouvrage Théorie du drone : « Le soldat, c’est celui qui ne tire pas ». Les chiffres le confirment : les hommes ne sont pas portés sur le meurtre. Pendant la seconde guerre mondiale, 1% des pilotes américains étaient responsables de 40% des avions ennemis abattus, et seulement 19% des soldats américains en situation d’engagement ont fait usage de leur arme. Les robots tueurs, eux, ne risquent pas d’être atteints de dilemmes moraux. Pas de pitié, juste de l’efficacité, et tant pis pour les faux positifs, les erreurs de calcul, les bugs. Ce que ces machines ajoutent à la guerre, c’est la froideur du principe d’efficacité, ce qu’elles lui retirent : le principe de responsabilité. A moins de considérer que les robots tueurs seront un jour capable de respecter le droit international humanitaire grâce à des algorithmes sophistiqués – ce qui est rigoureusement impossible – leur arrivée sur le champ de bataille ne fera qu’accentuer l’immunité que s’accordent les grandes puissances. Surgit alors cette terrible ironie : la guerre sans responsabilité, en dehors de toutes règles, visant à la fois militaires et civils, est la définition même du terrorisme.

C’est bien pourquoi de plus en plus de voix s’élèvent pour l’interdiction des robots tueurs, tout comme les mines antipersonnel ont été interdites en 1997. Mais ne nous trompons pas d’objectif : il ne s’agit pas de se prémunir d’une armée de Terminator annihilant l’espèce humaine. Le risque est tout simplement de faire un (grand) pas de plus vers l’obscurantisme.


Les commentaires

Pour réagir à cet article, je me connecte Je m’inscris

Soyez le premier à réagir !

Les sources de cet article


S’inscrire et participer

Inscrivez vous sur le Digital Society Forum pour commenter et réagir sur les articles et être informé des événements à venir

DSF