Digital Society Forum Digital Society Forum
Partenaires 27/09/2019

YouTube, Spotify et Fellini : comment fonctionnent les algorithmes de recommandation culturelle ?

Chaque mois ou presque, Claire Richard, rédactrice en chef du Digital Society Forum, sera dans l'émission de radio "Foule Continentale" , animée par Caroline Gillet et diffusée sur France Inter et la RTBF, pour parler du numérique et de ce que ça change dans nos vies. Vous pourrez ensuite retrouver la chronique sur le site, et la page de l'émission .

CAROLINE — Vous êtes dans Foule continentale, sur France Inter et aujourd’hui on tente une première : on vous propose de prendre l’apéro avec 4 journalistes, qui travaillent dans des domaines ardus mais essentiels.. On leur demande de nous raconter, de décrypter les lieux de pouvoir, pour se les réapproprier et qui sait peut être.. Mieux comprendre et donc mieux agir.. Et pour cette dernière partie, on parle des GAFA !

Claire Richard, tu es rédac chef de Digital Society Forum, mais tu as aussi longtemps travaillé pour Rue 89, tu t’intéresses à la place que prennent les nouvelles technologies dans nos vies.. Et notamment, tu as produit un texte pour ARTE RADIO sur l’internet et comment il a façonné nos imaginaires pornographiques.. Mais donc, là, malheureusement, on ne va pas parler de ca..


CLAIRE — Aujourd'hui, je vais vous parler des algorithmes. Moins sexy c’est vrai, mais je vais vous parler d’algorithmes que vous connaissez bien, les algos de recommandation culturelle : ceux qui vous proposent des contenus, sur YouTube, Netflix ou Spotify… Dans la grande famille des algorithmes, ce sont un peu comme des animaux de compagnie : on vit avec eux au quotidien, on a l’impression de bien les connaître, alors qu’en fait, on ne sait pas du tout ce qui se passe dans leur tête. Là c’est un peu pareil : on se dit que dans la culture, ce n’est pas trop grave le poids des algorithmes, alors qu’en fait ça a des enjeux économiques et sociaux importants. Parce qu’un algorithme, ça façonne des mondes, et que c’est dans ceux là qu’on va vivre.


CAROLINE — OK, alors est-ce qu’on pourrait commencer par le début : qu’est-ce que c’est, un algorithme ?


CLAIRE— Un algorithme c’est une formule mathématique à qui l’on demande de faire quelque chose. L’exemple classique, celui qu’on reprend tout le temps, c’est celui d’une recette de cuisine : vous suivez une série d’instructions et vous obtenez un résultat, normalement toujours le même. De façon très basique, c’est ça un algorithme : un programme composé d’une série d’instructions pour répondre à un problème.

Dans le cas des algorithmes de recommandation culturelle, la question va être : comment orienter les spectateurs dans l’océan de contenus qui sont produits ? comment leur faire des propositions tellement justes qu’ils restent sur le site et consomment des contenus à l’infini ?


Ca c’est des questions très compliquées parce que ces algorithmes sont tenus secrets : ils sont protégés par le secret commercial.

Mais beaucoup de gens cherchent à les éclairer et on sait quand même pas mal de choses dessus.


Ce weekend, par exemple j’ai regardé un documentaire très intéressant , sur le site d’Arte. Vous pouvez le voir en replay on mettra le lien sur la page de l’émission. Ca s’appelle « 100 millions de vues » et c’est une enquête assez bien faite sur le modèle de YouTube. Le réalisateur s’appelle Itamar Rose. C’est un vidéaste israélien, qui fait des interventions politiques dans la rue, qu’il filme. Ses vidéos sont reprises dans les médias nationaux, diffusées dans des musées comme la Tate à Londres... mais il fait un flop sur YouTube. Il décide d’enquêter pour je cite, « devenir une star de YouTube ».


CAROLINE — Et ça marche ?


CLAIRE— Non, pas du tout. On comprend d’ailleurs assez vite que en vrai, ce n’est pas l’enjeu, et c’est assez délectable de le voir créer des vidéos plus sinistres les unes que les autres pour se moquer des soi-disant codes de la viralité. D’abord, il va voir un homme qui se fait appeler YosemiteBear



Cette vidéo est devenu un énorme classique de YouTube. Dans cette vidéo, Yosemite Bear, donc, filme un double arc-en-ciel et s’extasie pendant 3 minutes. Il dit à Rose que pour lui, s’il y a eu 46 millions de vue, c’est grâce à Dieu. Evidemment la suite du documentaire s’emploie à montrer que Dieu n’a rien à voir dans tout ça : derrière les réussites fulgurantes et les fortunes faites par des YouTubeurs de quatorze ans, il y a un tout-puissant algorithme, et des décisions économiques et politiques.


CAROLINE — Et alors comment ils fonctionnent, les algorithmes comme ceux de youtube qui recommandent des contenus ?


CLAIRE — Les algorithmes les plus connus fonctionnent sur le principe dit du « filtrage collaboratif». Vous commencez par constituer un profil des goûts d’une utilisatrice, par exemple toi, Caroline – à partir des informations que tu as mises sur le site, ou ce que tu as liké. D’un autre côté, l’algo crée une base de données sur un objet culturel : un livre, un film, une chanson... qu'il faut donc indexer. On sait que par exemple, Netflix a demandé à des gens de regarder des milliers de films, en remplissant des questionnaires très pointus. Ensuite ils ont créé des catégories très fines : il y en a environ 77 000.

Pour te proposer un film, l’algorithme va chercher des profils d’utilisateurs qui te ressemblent. Il va regarder les films qu’eux ont aimé, et il va te faire des propositions en fonction de ça.

Ensuite ces dispositifs de recommandation sont affinés, selon vos comportements, ce sur quoi vous cliquez ou non... pour vous proposer des contenus encore plus adaptés. Les spécialistes de ça, ce sont Netflix, qui vont très loin : eux ont par exemple créé pour la série House of Cards des bandes annonces différentes selon vos habitudes de visionnage : si vous avez aimé des films avec Kevin Spacey, vous verrez des bandes annonces centrées sur lui, si vous avez aimé des films avec des personnages de femmes fortes, vous verrez des bande annonces centrées sur le personnage de Claire.

CAROLINE — GENIAL, mais donc si je suis une énorme fan de Claire, c’est tout benef.. Pourquoi est-ce que c’est un problème qu’on me propose de regarder une vidéo plutôt qu’une autre ?

CLAIRE — Il y a plusieurs façons de répondre à ça. Une critique qui revient souvent, c’est celle de l’homogénéisation du paysage culturel. C’est de dire : le problème de ces algorithmes, c’est qu’ils calculent vos préférences sur ce que vous avez aimé par le passé. Par définition, ils ne peuvent pas vous proposer de l’imprévu, de la sortie de piste, ce qu’on appelle la «sérendipité».

CAROLINE — Mais ça c’est vrai ?

CLAIRE — C’est compliqué. D’abord la sociologie montre bien que nos goûts ne sont pas qu’individuels : nos goûts sont influencés par notre classe sociale, notre genre… Et, je crois qu’on surestime parfois notre esprit de découverte. Par exemple, deux sociologues ont fait une étude très intéressante : ils ont regardé les comportements d’écoute d’usagers d’une plateforme de streaming musical, sur quatre mois. Et ils ont montré que les gens découvraient plus de nouveaux titres via l’algorithme que quand ils faisaient des recherches eux-mêmes. Donc comme souvent avec les grandes paniques sur le numérique, il faut se méfier des discours catastrophistes.

CAROLINE — Mais j’imagine que tu nous parles pas des algorithmes juste pour nous dire que tout est OK. Alors c’est quoi le problème ?

CLAIRE — Le vrai problème, pour moi, c’est que ces logiques de recommandation se présentent comme neutres, alors qu’en fait, elles reflètent des décisions tout à fait subjectives, qui servent des intérêts. On dit souvent, c’est une opinion formalisée dans du code.

Donc un algorithme de recommandation culturelle, ça s’inscrit dans une stratégie commerciale.

Et le but des algorithmes ce n’est pas de créer un contenu le plus divers possible, même si individuellement les gens qui y travaillent peuvent avoir ça en tête. C’est de créer un contenu qui vous retienne sur la plateforme. Et ça les YouTubeurs professionnels le savent très bien.



Le WatchTime, aujourd’hui, c’est plus important que le nombre de clics. Or, c’est une mesure purement quantitative.

Et ça c’est un biais très important.

CAROLINE — Pourquoi ?

CLAIRE — Eh bien je ne sais pas vous, mais moi ça m’arrive quand même assez souvent de regarder des vidéos qu’en fait je n’aime pas du tout, que je regrette d’avoir regardées. Parce que c’est comme quand on mange un kebab alors qu’on sait qu’on aurait mieux fait de manger des brocolis : ce qu’on fait ne correspond pas toujours à ce qu’on est, ou ce qu’on veut être. Or le Watch Time ça met au centre ce que tu fais. On pourrait imaginer que tu me dises : "Algorithme, montre moi des films de Fellini ou des documentaires indépendants -- quand je rentre du travail, j’ai la flemme et je voudrais regarder "Friends", mais si tu me lances des vidéos nouvelles, je vais peut-être découvrir des choses. Au contraire, le Watch Time encourage à reproduire ce qu’on fait déjà.

C’est une conception comportementaliste de l’homme : l’idée que ce sont les comportements qui comptent, pas ce que les gens disent d’eux-mêmes. Le comportementalisme influence beaucoup les ingénieurs de la Silicon Valley, et leur façon de construire des dispositifs qui cherchent à influencer les comportements de façon invisible.

J’ai interviewé il y a deux ans un ethnographe américain, Nick Seaver. Il a fait une enquête parmi les ingénieurs qui fabriquent l’algorithme de recommandation culturelle musicale. Il a parlé avec eux longtemps, les a observé au travail… Et il me racontait cette chose intéressante : à la fois que la plupart prennent à coeur l’idée de faire découvrir de nouvelles choses. Mais aussi qu’ils parlent de leurs outils comme de “pièges” : ils se voient comme des concepteurs de dispositifs qui essaient de retenir l’utilisateur.

CAROLINE – Et est-ce que ça a des influences sur le type de contenus qui sont en ligne, ces algorithmes ? est-ce que ça modifie ce qui est produit ?

CLAIRE — On sait que les algorithmes sont en train de modifier la production culturelle, mais c’est un sujet qui mérite une chronique à part entière. Les YouTubeurs sont constamment en train d’essayer d’adapter leurs vidéos aux algorithmes, pour qu’elles figurent dans les recommandations sur la plateforme. Netflix a beaucoup communiqué sur le fait qu’ils utilisaient un algorithme pour analyser leurs données de visionnage et essayer de voir quels types de contenus plaisaient beaucoup et donc qu’ils pouvaient produire. Donc on sait que ça affecte déjà la production.

Pour aujourd’hui, je vais rester sur YouTube.

Mais ça pose aussi la question de la diffusion. YouTube se présente comme une plateforme démocratique, et a fait beaucoup de communication sur le fait de faire entendre les voix du monde entier. Mais en réalité, c’est un annonceur.Et les choix algorithmiques qu’elle fait pour retenir ses usagers vont avoir des impacts sur ce qu’on voit sur la plateforme.

Guillaume Chaslot est un Français. Il a été ingénieur chez YouTube et il a travaillé sur l’algorithme de recommandation. Depuis, il a démissionné et il en dénonce les effets.



Le problème c’est que les contenus clivants, provocants, conspirationnistes, borderlines... sont plus « engageants ». Chaslot a montré, par exemple, que YouTube favorise les contenus de vidéos des « platistes », ces gens qui pensent que la terre est plate. Pourquoi ? En partie parce que ces personnes ne trouvent pas d’écho de leurs théories sur d’autres médias et qu’elles passent donc beaucoup de temps sur YouTube. L’algorithme fait remonter des vidéos platistes parce qu’elles marchent mieux.

CAROLINE — Alors qu’est-ce qui peut être fait?

CLAIRE - A mon avis, le vrai enjeu c’est de se rappeler que les algorithmes dits culturels s’inscrivent dans des stratégies commerciales et des intérêts privés.

Or leur intérêt est de nous faire passer un temps infini sur les plateformes. Et à mon avis, c’est à ça qu’il faut réfléchir : ce qu’on fait de notre temps. D’après un récent rapport , les vidéos en ligne représenteraient presque 1% des émissions de gaz à effet de serre. Il faut réfléchir au coût écologique de ces pratiques, à ce qu’on absorbe et pourquoi.

CAROLINE — Merci Claire.. Maintenant que Claire a percé à jour les secrets des algorithmes.. j’espère que vous allez tous vous mettre aux tutos youtube.


Les commentaires

Pour réagir à cet article, je me connecte Je m’inscris

Soyez le premier à réagir !

S’inscrire et participer

Inscrivez vous sur le Digital Society Forum pour commenter et réagir sur les articles et être informé des événements à venir

DSF