Des familles poursuivent TikTok en justice pour des contenus présumés préjudiciables, demandant la responsabilité de l’algorithme


Principaux renseignements

  • Sept familles françaises ont intenté un procès à TikTok pour avoir prétendument causé du tort à leurs enfants en raison d’une modération insuffisante du contenu.
  • Le procès vise à tenir la plateforme responsable de la promotion de contenus nuisibles liés à l’automutilation, au suicide et aux troubles de l’alimentation.
  • Algos Victima, un collectif de ces familles, affirme que les failles algorithmiques de TikTok rendent le service dangereux.

Sept familles françaises intentent une action en justice contre TikTok, affirmant que la modération insuffisante du contenu de la plateforme a mis leurs enfants en danger. Ces familles, qui forment un collectif connu sous le nom d’Algos Victima, poursuivent ByteDance, la société mère de TikTok basée à Pékin. Elles affirment que la plateforme promeut des contenus préjudiciables liés à l’automutilation, au suicide et aux troubles de l’alimentation. Cela rapporte Politico.

Les allégations

Leur action en justice vise à tenir TikTok pour responsable de ses défaillances en matière de modération, arguant que ces failles rendent le service dangereux. Le collectif se compose de familles dont les filles adolescentes ont subi diverses formes de préjudice sur la plateforme, dont deux sont tragiquement décédées par suicide.

Cas précédents et paysage juridique

En septembre 2023, la famille de Marie, une adolescente de 15 ans, a intenté une action en justice contre TikTok, lui reprochant d' »inciter au suicide », de « ne pas venir en aide à une personne en danger » et de « promouvoir et faire la publicité de techniques d’automutilation ». L’avocate de Marie, Laure Boutron-Marmion, a déclaré que l’algorithme de TikTok avait piégé Marie dans un cycle de contenus toxiques liés aux brimades qu’elle subissait en raison de son poids.

Responsabilité numérique et responsabilité

Cette affaire s’inspire d’un précédent britannique où un coroner a conclu que le suicide de Molly Russell, 14 ans, avait été influencé par des contenus graphiques sur l’automutilation et le suicide qu’elle avait rencontrés sur Pinterest et Instagram. Cette décision a mis en évidence l’impact potentiel des algorithmes dans l’amplification des contenus préjudiciables.

Implications plus larges pour les plateformes en ligne

Le paysage juridique entourant les plateformes en ligne et les contenus générés par les utilisateurs est complexe. Aux États-Unis, des voix se sont élevées pour demander l’abrogation de l’article 230 de la loi sur la décence des communications (Communications Decency Act), qui protège les entreprises de toute responsabilité pour les contenus publiés par les utilisateurs. Toutefois, des discussions sont également en cours pour tenir les plateformes responsables des contenus préjudiciables, en particulier dans les cas de traite des êtres humains à des fins sexuelles.

L’action civile de la victime d’Algos

L’action civile d’Algos Victima vise à soumettre l’algorithme et le modèle commercial de TikTok à un examen juridique approfondi. Ils cherchent à établir un précédent qui tienne les plateformes responsables des conséquences potentiellement dommageables de leurs algorithmes. Bien que la division française de TikTok ait refusé de commenter l’affaire, elle a déclaré qu’elle interdisait les contenus liés au suicide ou à l’automutilation.

Signification et implications

Ce procès a des implications importantes pour TikTok, qui revendique 21 millions d’utilisateurs en France. Il pourrait créer un précédent en ce qui concerne la responsabilité des plateformes à l’égard des contenus générés par les utilisateurs et leur impact potentiel sur le bien-être de ces derniers. Le président français Emmanuel Macron a précédemment appelé à une plus grande transparence des algorithmes utilisés par des plateformes comme TikTok, tout en s’opposant à une interdiction totale de l’application.

Si vous souhaitez accéder à tous les articles, abonnez-vous ici!

Plus