Après les révélations du Wall Street Journal sur la toxicité connue d’Instagram vis-à-vis des adolescents mal dans leur peau, de nouveaux éléments indiquent que l’entreprise de Mark Zuckerberg adapte ses algorithmes en toute connaissance de cause pour maximiser ses profits, en dépit du bien-être de ses utilisateurs.
Contenus haineux et fake news : Facebook privilégie ses profits plutôt que le bien-être de ses utilisateurs
Pourquoi est-ce important ?
Facebook fait régulièrement l’objet de critiques concernant la modération des messages publiés sur sa plateforme. Étant donné le poids du réseau social, la visibilité laissée à certains types de contenus liés à d’importants sujets de société peut avoir une influence considérable sur ces derniers. "Nous avons des preuves provenant de diverses sources que les discours de haine, les discours politiques qui divisent et la désinformation sur Facebook et sa famille d'applications affectent les sociétés du monde entier", a d’ailleurs déclaré Frances Haugen.La lanceuse d’alerte qui a partagé des documents internes à Facebook concernant les effets néfastes d’Instagram sur les jeunes utilisateurs a fait de nouvelles révélations lors d’une interview pour CBS. Cette personne, Frances Haugen, anciennement cheffe de produit chez Facebook au sein du groupe Civic Integrity, a partagé davantage d’informations concernant le fonctionnement interne de l’entreprise américaine qui aurait tendance à privilégier ses propres intérêts au détriment du bien-être de ses utilisateurs.
Pour optimiser ses produits, Facebook n’hésiterait pas à adopter des algorithmes qui amplifient les discours de haine. L’entreprise choisit « le profit plutôt que la sécurité » de ses utilisateurs, a indiqué Frances Haugen durant son interview. La situation serait pire que chez Google ou Pinterest, deux entreprises pour lesquelles la lanceuse d’alerte a travaillé.
Des algorithmes profitables
Selon l’ex-employée de l’entreprise, les algorithmes mis en place par Facebook en 2018 régissent ce que les utilisateurs voient sur la plateforme. Ils ont été développés pour stimuler l’engagement des utilisateurs. Or, l’entreprise de Mark Zuckerberg aurait remarqué que les publications qui entrainent le plus d’engagements sont celles qui diffusent de la peur et de la haine aux utilisateurs et n’aurait rien fait pour contrer cela. « Il est plus facile d’inspirer les gens à la colère qu’à d’autres émotions », a indiqué la lanceuse d’alerte.
« Il y avait un conflit entre ce qui était bon pour le public et ce qui était bon pour Facebook », a-t-elle expliqué. « Et Facebook a choisi encore et encore d’optimiser pour ses propres intérêts, comme gagner plus d’argent ».
Pourtant, à l’époque, Facebook avait présenté ses nouveaux algorithmes comme bénéfiques pour ses membres, indiquant que le groupe cherchait avant tout à s’assurer que ses services n’étaient pas seulement du divertissement, mais qu’ils étaient également bons pour le bien-être des gens, rappelle The Verge.
« La désinformation, la toxicité et le contenu violent sont excessivement répandus parmi les repartages », indiquait une note interne de Facebook par le Wall Street Journal concernant les effets des nouveaux algorithmes.
Ces derniers auraient tout de même été modifiés durant la campagne présidentielle américaine de novembre 2020 pour réduire la diffusion de fausses informations. Le cadre s’y prêtait plutôt bien et Facebook avait déjà été particulièrement critiqué à ce propos durant les précédentes élections. Or, dès les résultats connus, le groupe les aurait à nouveau modifiés « pour donner la priorité à la croissance plutôt qu’à la sureté », a indiqué la lanceuse d’alerte.
Ce retour aux algorithmes « d’avant » aurait d’ailleurs joué un rôle dans les évènements du 6 janvier et à la prise du Capitole par les partisans de Donald Trump, estime Frances Haugen.
Avant l’interview de Frances Haugen, Facebook a été convoqué devant le Sénat des États-Unis pour s’expliquer concernant les révélations faites par le journal américain. Selon ces dernières, l’entreprise de Mark Zuckerberg est parfaitement consciente de l’impact toxique qu’a Instagram sur ses utilisateurs. Malgré la tentative de défense de Facebook, le Sénat n’a pas été convaincu et a mis la pression sur le réseau social pour stopper le développement d’une version pour enfants d’Instagram. Les nouvelles révélations de la lanceuse d’alerte pourraient amplifier la position difficile dans laquelle se trouve actuellement Facebook.
À lire aussi: