Digital Society Forum Digital Society Forum
Entretien 28/05/2019

Comment la modération est devenue le coeur de l'activité des plateformes

Il y a quinze ans, les premières plateformes numériques comme Facebook ou Twitter promettaient un espace de libre expression, ouvert à tous et toutes. Aujourd’hui, elles sont submergées par les affaires de harcèlement en ligne, d’appels à la violence, de propagande politique, de fake news… Elles qui ont longtemps protégé farouchement leur « neutralité » doivent désormais jouer les arbitres entre des positions inconciliables et apprendre sur le tas une fonction qu'elle n'avait pas anticipée.
Ce travail porte un nom : la modération des contenus. L’universitaire américain Tarleton Gillespie y a consacré un ouvrage : Custodians of the Internet , « Les gardiens d’Internet » (Yale Press, non traduit). Pour lui, la modération a toujours été au cœur de ce que proposaient les plateformes, même quand elles affirmaient le contraire. Aujourd’hui, elle est un espace où se jouent des tensions insolubles, qui dessinent l’avenir du web.

Vous dites que les plateformes ne sont ni des productrices de contenus, ni de simples conduits mais des « objets hybrides ». Comment les définissez-vous ?

Il faut cesser de penser les plateformes avec des cadres de pensée (et de régulation) hérités des médias traditionnels. Il est plus fructueux de penser les plateformes comme des courtiers (brokers) de l’information. Uber se présente comme une plateforme mettant en contact des passagers et des conducteurs, mais on l’attaque de plus en plus sur son statut d’employeur, le rôle de son algorithme etc. Twitter se définit comme une plateforme de publication, mais je crois qu’on devrait lui poser le même genre de questions sur sa responsabilité.

Avec les scandales de harcèlement, les accusations portées contre Facebook pour son rôle dans la diffusion des fake news pendant les élections présidentielles américaines de 2016… Croyez-vous que beaucoup de gens pensent toujours que les plateformes sont neutres ?

C'est vrai que la perception de ces questions a changé ces cinq dernières années. J’ai commencé à réfléchir à ces questions en 2009. A l’époque, les moteurs de recherche et les premiers réseaux sociaux avaient réussi à convaincre beaucoup de monde qu’ils étaient de simples intermédiaires et n’intervenaient pas sur les contenus. La presse critiquait les décisions de Facebook comme hypocrites, conservatrices, inadaptées… mais on ne savait pas grand-chose de la réalité de la modération. Depuis, des enquêtes et des livres ont révélé son existence et des pans de son fonctionnement.
La question de la manipulation politique, combinée à celle du harcèlement en ligne, des discours de haine, ainsi que la fuite de documents révélant comment se menait la modération au sein des plateformes… ont entamé leur image lisse. Mais je pense qu'il est toujours important de parler de la modération pour comprendre ce que sont les plateformes aujourd'hui, et ce vers quoi elles tendent.

L’une des propositions les plus intéressantes de votre livre est de dire que la modération, loin d’être une activité secondaire pour les plateformes est au contraire « le service essentiel » qu’elles offrent. Depuis quand ?

C'a toujours été le cas. Dès le début, malgré leurs discours sur la liberté d’expression sans limites, les plateformes ont obéi à des règles. Car le passage du Web ouvert, avec des sites entre lesquels on naviguait via les moteurs de recherche, aux plateformes s’est fait avec deux promesses : celle d’une plus grande simplicité (plus besoin de connaître l’HTML, il suffisait de se logger) et celle de trouver enfin en ligne ce qu’on voulait et de ne plus avoir à subir le porno et les spams. Se débarrasser des spams et du porno était une idée relativement peu clivante : c’est avec les contenus politiques ou artistiques que ça s’est compliqué et que Facebook et Twitter se sont soudain trouvés en position d’arbitres.
Au fil du temps, les activités de modération ont pris de plus en plus de place. Dix-huit mois après sa création, Facebook employait une poignée d’étudiants de Harvard bénévoles pour faire le service client. Quinze ans plus tard, vous avez 75 employés de Facebook travaillant à la modération, plus 15 ou 20 000 employés en sous-traitance, ainsi qu’une équipe d’avocats, un attirail d’outils de détection de contenus problématiques, des consultants… Ce dispositif de grande ampleur s’est développé progressivement, à mesure que Facebook grandissait, se trouvait confronté à un nombre croissant de controverses et découvrait que certaines règles nécessaires n’avaient jamais été mises en place.

Vous soulignez que la modération est une tâche très difficile et à bien des égards vouée à l’échec : pour des raisons techniques mais aussi parce qu’elle requiert d’arbitrer entre des valeurs inconciliables, des publics qui ne peuvent s’entendre. Comment les modérateurs que vous avez interrogés vivent-ils leur travail ?

Dans ce livre, j’ai principalement interrogé des personnes chargées d’établir les politiques de modération, pas celles employées sur le terrain. Je crois que la perception varie selon que la plateforme se charge de la modération en interne ou le sous-traite au bout du monde. Ceux qui sont dans l’entreprise sont très impliqués dans leur travail : pour eux, c’est un travail nécessaire à la vie de la communauté, une forme de community management.
Mais le travail est très différent si vous êtes à Manille, en train de cliquer sur des images qui sont probablement postées sur Facebook mais vous ne le savez pas, sans protection du travail ou sans savoir réellement qui vous emploie.

Vous décrivez la modération comme un dispositif hétérogène, impliquant tellement de personnes, employées ou sous-traitantes, et tellement de cas uniques et complexes, que les erreurs sont quasi inévitables. Ce n’est pas du tout une grosse machine huilée, plutôt un assemblage qui se crée au coup par coup.

Oui, c’est plutôt un ensemble de règles inventées sur le tas, pour répondre à des événements qui se présentent. C’est particulièrement clair pour Facebook : les documents servant à la formation des modérateurs, qui ont fuité en ligne, montrent les règles qu’ils doivent suivre.
Facebook avait sous-estimé l’importance du problème — ils avaient compté sur l’émergence d’une solution automatique mais elle ne s’est pas matérialisée. Mais ils ont fini par comprendre que la main-d’œuvre qu’ils employaient pour faire ce travail était débordée. Ils ont aussi compris qu’il n’y avait pas de bonne façon de faire, avec un public ayant tant de valeurs différentes, avec une infinité de cas possibles… A défaut de pouvoir être justes, ils ont cherché à établir des règles pour que la modération soit consistante. Ainsi, deux modérateurs pourront avoir une conception différente de ce qui est politiquement acceptable, de ce qui est obscène… mais en suivant des règles, ils prendront grosso modo la même décision.

A la lecture du livre, on en vient à se demander si on ne blâme pas parfois les plateformes pour des choses qui les dépassent : la fragmentation de l’espace public, l’émergence de voix contradictoires avec des valeurs irréconciliables… On peut parfois se demander si elles ne sont pas l’arbre qui cache la forêt.

Sans les dédouaner, les plateformes sont prises dans des tensions sociales qu’elles n’ont pas provoquées. Les points sur lesquels se cristallisent les tensions autour de la modération recoupent des tensions sociales plus larges : quelles sont les limites d’une société organisée autour de la liberté d’expression ? Qu’est-ce qui constitue un discours de haine, qu’est-ce qui est obscène ? Ces tensions s’expriment en Europe et aux États-Unis depuis des siècles !
Les plateformes ont fait preuve de naïveté quand elles sont entrées dans cet espace en déclarant qu’elles voulaient héberger toutes les formes de discours public. Elles n’ont pas compris qu’elles mettaient les pieds dans une série de controverses âprement disputées, pour lesquelles elles n’avaient élaboré aucune posture morale.
Face à ça, elles ont adopté le modèle du service client : n’hésitez pas à signaler tout contenu inapproprié, nous interviendrons rapidement. Cela leur permet d’avoir l’air réactives (même si ce n’est pas toujours le cas) mais en réalité, penser qu’on pourrait résoudre des tensions sociales très profondes à la satisfaction générale est vraiment naïf.
Par ailleurs, les plateformes sont aussi un lieu d’intervention commode pour des problèmes beaucoup plus complexes. Prenons l’exemple de la fusillade de Christchurch, par exemple. C’est choquant, on veut réagir. Mais la question qui se pose, c’est « Comment réduire la haine dans le monde ? » — une question complexe et assez déprimante. C’est beaucoup plus facile de demander : « Et si Facebook avait retiré la vidéo postée par le meurtrier ?

Vous soulignez à plusieurs reprises le fait que ces règles, du moins au départ, ont été mises en place par un groupe de personnes très homogène : majoritairement des hommes, Blancs, diplômés, de la classe moyenne. Comment cela a-t-il affecté la modération ?

Je pense qu’on le voit dans leur perception du monde. Je ne suis pas étonnée que des jeunes gens éduqués aux Etats-Unis n’aient pas vu le problème à aller s’implanter en Birmanie (note : où Facebook est accusé d’avoir facilité par ses services la diffusion d’appels au génocide), alors qu’ils ne connaissaient pas du tout le contexte.
On retrouve aussi ça dans l’idée qui prédominait aux débuts des plateformes, l’idée que connecter les gens était positif en soi, que c’était bon pour tout le monde. C’est plus facile de voir les choses comme ça quand on fait partie d’un groupe privilégié et qu’on n’a jamais rencontré d’obstacle structurel majeur. Alors que si on fait partie d’une minorité, si on a une expérience de l’oppression, on aura sûrement une meilleure idée des ambivalences et des risques associés à la connexion.

Vous évoquez aussi régulièrement la tension entre le besoin de modération et les impératifs commerciaux ?

Les plateformes commerciales cherchent à tout prix à maximiser l’engagement et la croissance, qu’elles voient comme la mesure de leur succès. Les métriques de l’engagement sont cruciales, pour rassurer les investisseurs sur la santé des plateformes, convaincre les directeurs que les stratégies adoptées fonctionnent. Au sein de ces entreprises, vous avez des gens qui font de la modération de contenu depuis longtemps et qui savent que la croissance peut parfois poser problème, que trop de nouveaux arrivants dans une communauté peut poser problème… Mais il est plus difficile de défendre une fonctionnalité visant à préserver la communauté à long terme, qu’une fonctionnalité qui promet de doubler l’engagement en deux mois.

Un autre problème c’est la modération invisible, le fait que les plateformes vont supprimer un contenu dans un pays mais pas dans un autre, par exemple. Quelles sont les implications pour la sphère publique, si chaque utilisateur voit quelque chose de différent ?

En tant qu’être humain, nous percevons très fortement la cohérence des objets. Quand nous disons « Facebook », ou « Google », nous y pensons comme à un objet invariable, identique pour tout le monde. En réalité, les plateformes proposent des expériences tout à fait différentes pour chaque usager. Le moteur de recherche de Google, par exemple, opère en continu des opérations de « A-B testing » (note : pour voir quels résultats fonctionnent le mieux) et personnalise continuellement les résultats en fonction des données qu’elles ont sur vous, de ce qu’elles pensent de la région où vous habitez, de votre profil en tant que consommateur… On parle toujours de « l’algorithme du moteur de recherche » mais il n’existe pas. C'est un objet complexe et mouvant, qui se présente à nous différemment d’à nos voisins.
Cette ambiguïté, dont je ne suis pas sûr qu’on puisse totalement se défaire, est de plus en plus exploitée par des politiciens. Aux États-Unis, des commentateurs conservateurs se plaignent d’être censurés, « shadow banned », c’est-à-dire qu’ils ne sont pas exclus du site mais que personne ne voit leurs messages… Et il est très difficile de réfuter leurs arguments, puisque qu’il est impossible de prouver qu’ils ont tort.
Face à ça, il y a deux tendances : soit ne pas percevoir l’ampleur des modifications apportées, soit tomber dans le conspirationnisme. La voie médiane est une sorte de « scepticisme informé », conscient que ce que nous voyons est produit pour nous. Nous avons progressivement appris à être critique des médias traditionnels, à interroger leurs angles morts, leurs présupposés, l’influence de leur structure économique… Il faut réfléchir à un équivalent pour l’âge numérique, qui interrogerait l’optimisation, la personnalisation, les biais, etc.

Dans votre conclusion, vous évoquez la « longue gueule de bois du Web 2.0 », en disant que nous avons peut-être conclu un « pacte faustien »…

A ses débuts, le Web voulait renverser un paysage médiatique trop fermé, où un cercle restreint de gens avait le pouvoir de contrôler qui accédait à la parole, à la visibilité… C’était vrai et le Web social a renversé la tendance. Maintenant, nous retrouvons avec de nouveaux problèmes : l’amplification, la viralité, les manipulations de ça… Et nous ne savons pas bien comment réagir.
Si vous créez un dispositif destiné à amplifier un large éventail de voix, certaines vont nécessairement vous déplaire. Mais c’est trop tard, vous ne pouvez plus dire « Oups, maintenant tout le monde est sur Twitter, c’est un problème ! ». Vous ne pouvez pas dire que l’espace public est un espace sacré réservé à quelques-uns, vous devez vous battre sur un autre terrain. C’est ça, le pacte faustien.
Aujourd’hui, il est difficile de changer les choses sans revenir sur certains choix qui ont été faits il y a quinze ans. Nous nous retrouvons pris dans des tensions sociales que nous n’avions pas anticipées.

Vous avancez plusieurs propositions pour assainir les plateformes, développer une modération plus « civique »… Est-ce que cela n’est pas contradictoire avec leur nature essentiellement commerciale ?

Je crois que le vent est en train de tourner. Les plateformes ont eu beaucoup de mauvaise presse et elles veulent changer ça — et éviter une nouvelle régulation du secteur. Il y a une longue tradition américaine d’autorégulation dans des secteurs, pour anticiper des réglementations qui risqueraient d’être trop drastiques. Je pense aussi qu’il y a aujourd’hui une envie de communautés qui n’encourageraient pas la division, la manipulation… Je ne suis pas très optimiste sur la possibilité pour les grosses entreprises d’y arriver. Mais je crois qu’il y a de la place pour une entreprise qui pourrait faire des profits tout en ayant une vision beaucoup plus saine de ce qu’est une communauté et de ce que cela signifie de la faire vivre.


Les commentaires

Pour réagir à cet article, je me connecte Je m’inscris

Soyez le premier à réagir !

S’inscrire et participer

Inscrivez vous sur le Digital Society Forum pour commenter et réagir sur les articles et être informé des événements à venir

DSF