“YouTube nous mène vers les méandres de l’extrémisme, pendant que Google passe à la caisse”

Quels sont les contenus deYouTube qui font en sorte que les utilisateurs soient rivés à leurécran? L’algorithme de laplate-forme vidéo, propriété de Google, semble avoir conclu queles personnes sont attirées par des contenus de plus en plusextrêmes, racistes et conspirationnistes, que ceux qu’ellesrecherchaient en se connectant, écrit Zeynep Tufekc, professeureturque qui enseigne les sciences de l’information à l’Université deCaroline du Nord.

« YouTube pense queles personnes aiment les contenus incendiaires »,explique-t-elle après avoir visionné plusieurs vidéos politiquessur la plate-forme.

Dans un article d’opinionpublié dans le New York Times, Tufekc explique que Google « nourritl’extrémisme » afin d’obtenir de plus en plus d’avantages de sesvisiteurs.

Lorsque Zeynep Tufekc arecherché des séquences vidéo sur Donald Trump, YouTube lui arecommandé des contenus de plus en plus extrêmes que ce qu’ellerecherchait au départ. « YouTube a commencé à me recommanderet à lire automatiquement des vidéos de coups de gueule desuprématistes blancs, des séquences négationnistes de l’Holocausteet d’autres contenus troublants », explique-t-elle.

Elle s’est ensuite demandés’il s’agissait d’un phénomène exclusivement de droite. Dès lors,elle a créé un autre compte YouTube orienté cette fois-ci vers descontenus sur Bernie Sanders et Hillary Clinton et a laissél’algorithme de recommandation de YouTube la rediriger vers où il lesouhaitait.

« Très vite, j’aiété redirigée vers des vidéos de conspirateurs gauchistes, versdes vidéos prônant l’existence d’agences gouvernementales secrèteset vers des contenus affirmant que le gouvernement américain étaitderrière les attentats du 11 septembre 2001. »

Même constat derecommandations extrémistes pour d’autres sujets

Tufekc s’est ensuiteintéressée à des sujets non politiques. Le même modèle de base aémergé. A partir de vidéos sur le végétarisme, elle a étéredirigée vers des contenus sur le véganisme et des vidéos sur lejogging l’ont emmenée vers des sujets tels que les ultra-marathons.

Les conclusions de Tufekcsont soutenues par les recherches de Guillaume Chaslot, un ancieningénieur de Google, licencié en 2013, soi-disant pour son piètrerendement de travail. Au départ, Chaslot a travaillé audéveloppement de l’algorithme de recommandation de YouTube. Par lasuite, il s’est inquiété des tactiques utilisées pour que lespersonnes passent plus de temps sur le site. Selon ses proprestermes, son licenciement aurait davantage à voir avec son insistanceà modifier la manière dont l’entreprise gère de tels problèmes.

« Nous assistons àl’exploitation automatisée d’un désir humain naturel »

« Nous assistons àl’exploitation automatisée d’un désir humain naturel: celuide regarder derrière le rideau, de creuser plus profondément dansun sujet qui nous engage. Lorsque nous cliquons sans cesse, noussommes entraînés par la sensation excitante de découvrir davantagede secrets et de vérités profondes. YouTube mène lestéléspectateurs vers les méandres de l’extrémisme, tandis queGoogle augmente ses ventes grâce à la publicité », écrit leNew York Times.

Une étude récente sur ceproblème, en collaboration avec le Wall Street Journal, confirme cessoupçons. Enfin, YouTube admet que « ses recommandationsrestent un problème ».

© Bengt Oberger

Plus