Facebook parie sur l’IA pour lutter contre les contenus haineux, mais ses propres ingénieurs n’y croient pas trop

Le réseau social a un gros souci avec les contenus toxiques, mensongers, ou haineux. Accusé de les mettre en avant en connaissance de cause, Facebook promet de régler ce problème au plus vite. Ce n’est pas la première fois, et des documents internes prouvent que les employés du groupe ne considèrent pas que c’est réalisable avec les outils dont ils disposent.

Ces derniers temps, chaque semaine qui passe apporte de nouveaux ennuis à Facebook. Après les révélations sur la toxicité des réseaux pour la santé mentale des adolescents et sur le fait que le groupe de Mark Zuckerberg, en toute connaissance de cause, favorisait le profit aux contenus haineux ou malsains, le réseau social avait – encore une fois – promis de faire amende honorable.

Facebook veut bannir de sa plateforme les discours de haine et les contenus excessivement violents, tout en s’assurant que des jeunes enfants ne passent leur temps sur leur mur. Pour rappel, le réseau est censé être interdit aux moins de 16 ans. Pour y parvenir, la plateforme parie sur les intelligences artificielles afin d’identifier les contenus qui contreviendraient aux règles de l’entreprise. Sauf que globalement, ça ne marche pas.

Incapable de juger la violence

Selon des documents internes à l’entreprise qui ont été passés au peigne fin par le Wall Street Journal dans une grande enquête nommée Facebook Files, les résultats sont décevants. Le logiciel s’avère incapable d’identifier des tirs d’armes à feu filmés à la première personne, de localiser des messages racistes au sein d’une intervention verbale, ou encore de faire la différence entre un combat de coqs et un accident de la route. Et quand l’IA repère un contenu potentiellement problématique, elle n’est pas toujours en mesure de décider s’il viole ou non les règles de Facebook. Dans ces nombreux cas, la plateforme prend une demi-mesure: le contenu concerné sera montré à beaucoup moins d’utilisateurs, mais le compte responsable restera impuni. Une méthode qui ne supprime donc pas de nombreux contenus problématiques, tout en commettant aussi beaucoup d’erreurs de diagnostic qui pénalisent d’autres utilisateurs.

Facteur humain ? Delete

Car Facebook repose de plus en plus sur la technologie plutôt que sur le facteur humain : les documents révèlent que la compagnie a drastiquement réduit le temps que des opérateurs peuvent consacrer au contrôle de contenu. Et ceux-ci sont les premiers à signaler que cette approche ne fonctionne pas du tout. « Le problème, c’est que nous n’avons pas et n’aurons peut-être jamais un modèle qui capture ne serait-ce qu’une majorité des atteintes à l’intégrité, en particulier sur des sujets sensibles », écrivait un ingénieur dans une note de 2019. Il estimait que l’IA supprimait automatiquement des posts qui ne représentaient que 2% des vues de discours haineux. « Les estimations récentes suggèrent qu’à moins d’un changement majeur de stratégie, il sera très difficile d’améliorer cela au-delà de 10-20% à plus ou moins moyen terme. » Une autre étude interne arrive à la conclusion que ce ne sont guère plus de 0,6% des contenus violents ou incitant à la violence qui sont supprimés du site.

Selon les propres chiffres de Facebook, le réseau a consacré 13 milliards de dollars à la sécurité en ligne depuis 2016, soit 4% de ses revenus de l’époque. En 2018, Mark Zuckerberg, convoqué devant le Sénat américain, affirmait : « Sur le long terme, la création d’outils d’intelligence artificielle sera le moyen le plus efficace d’identifier et d’éliminer la plupart de ces contenus préjudiciables. » Trois ans plus tard et une élection américaine marquée par les appels à la haine en ligne et aux incidents du Capitole, voilà qui était rétrospectivement fort optimiste.

Plus