La modération, talon d’Achille de Facebook, pourrait ruiner le projet de métavers de Meta

Assurer la modération au sein de l’univers virtuel que souhaite développer Meta (anciennement Facebook) ne sera pas un jeu d’enfant. Proposer des expériences de réalité virtuelle sécurisées représentera en effet un défi de taille pour l’entreprise qui pourrait d’ailleurs être dans l’incapacité d’assurer une expérience optimale à grande échelle.

Bien que plusieurs grandes entreprises aient décidé de se lancer dans l’aventure, le métavers reste encore aujourd’hui un concept assez flou. Il faudra certainement attendre de pouvoir l’explorer pour en appréhender toutes les subtilités. Cependant, avant de pouvoir s’y plonger, ces entreprises – notamment Facebook – devront relever de nombreux défis et parmi les plus grands obstacles, on trouve l’une des grandes faiblesses de Facebook : la modération.

Le directeur technique de Meta – nouveau nom de la maison mère de Facebook, Instagram et WhatsApp – Andrew Bosworth a en effet indiqué dans une note interne récupérée par le Financial Times que la création d’expériences de réalité virtuelle sécurisées était un élément essentiel du projet de métavers de Facebook, mais que cet objectif serait potentiellement impossible à atteindre à grande échelle.

Le harcèlement ou tout autre comportement toxique au sein du métavers pourrait constituer une « menace existentielle » pour les plans de l’entreprise. Cela pourrait pousser le grand public à se détourner de la réalité virtuelle. Autrement dit, le projet d’univers virtuel de Meta qui implique également des produits dédiés à la réalité virtuelle (casques et lunettes), mais aussi des partenariats avec des grandes marques pour proposer des produits virtuels à la vente pourrait en pâtir. Si les choses se passent mal, Meta pourrait en souffrir.

Une modération à grande échelle impossible

Le fait est qu’à l’heure actuelle, la maison mère de Facebook a déjà du mal à assurer une modération suffisante. Le réseau social fait en effet régulièrement l’objet de critiques à ce niveau. Comment pourrait-elle faire mieux dans un environnement virtuel illimité ? Car si Meta peut mettre en place des règles plus ou moins strictes dans les espaces qui lui sont propres, ce ne sera pas forcément le cas au sein des univers élaborés par des développeurs tiers. Les risques de dérives sont évidents, d’ailleurs Andrew Bosworth l’avoue dans sa note interne: il sera pratiquement impossible de contrôler le comportement des utilisateurs à grande échelle.

Comme le souligne la journaliste Hannah Murphy, le directeur technique de Meta cite le théorème d’impossibilité de Masnick pour étayer ses propos. Selon ce théorème, « la modération de contenu à grande échelle est impossible à bien faire », car les tentatives de modération finiront « toujours par frustrer de très larges segments de la population et ne parviendront jamais à représenter avec précision le niveau ‘correct’ de modération de quiconque ». Autrement dit, appliquer la bonne dose de modération est impossible, car répondre aux attentes de tout le monde l’est tout autant.

Différents niveaux de blâmes

Andrew Bosworth estime que la solution pour éviter le chaos au sein du métavers est d’appliquer des mesures strictes qui passeront par l’application d’avertissements, suivis par des suspensions successivement de plus en plus longues et d’une expulsion pure et simple des espaces multi-utilisateurs de ceux qui ne se plient pas aux règles mises en place.

Dans un article de blog, l’homme a également indiqué que les utilisateurs pourront en bloquer d’autres. Un système de surveillance sera mis en place, ainsi qu’une fonctionnalité de signalement des mauvais comportements. Meta prévoit également de débourser 50 millions de dollars pour la recherche sur les problèmes pratiques et éthiques autour du métavers.

L’entreprise tente en quelque sorte de se montrer bienveillante et proactive. Une tâche complexe tant ses réseaux sociaux ont été critiqués en raison de leur échec en termes de modération, ainsi que pour leurs réponses lentes et inadéquates. Des critiques qui ont été exacerbées ces derniers temps, suite aux révélations de lanceurs d’alerte. Reste à voir si Meta apprendra de ses erreurs ou si son nouveau et ambitieux projet ne deviendra pas qu’une énième plateforme sur laquelle la modération fera défaut. Dans tous les cas, le défi s’annonce immense.

Plus