Web Analytics

Les plateformes de l’UE ne sont pas à la hauteur en matière d’évaluation des risques liés à la législation sur les services numériques

Les plateformes de l’UE ne sont pas à la hauteur en matière d’évaluation des risques liés à la législation sur les services numériques
Image by Hannes Edinger from Pixabay

Principaux renseignements

  • Les rapports des principales plateformes en ligne au titre de la loi sur les services numériques de l’UE ne parviennent pas à évaluer de manière exhaustive les préjudices potentiels.
  • Les plateformes négligent souvent la manière dont leur conception contribue aux risques systémiques tels que les problèmes de santé mentale, la polarisation politique et la diffusion de contenus préjudiciables.
  • La transparence grâce à des données vérifiables et l’engagement significatif des parties prenantes sont essentiels pour instaurer la confiance avec les utilisateurs et les régulateurs.

Selon une étude récente, les rapports soumis par les principales plateformes en ligne dans le cadre de la loi sur les services numériques de l’Union européenne n’évaluent pas correctement les risques associés à leurs services.

La loi sur les services numériques exige que ces plateformes, parmi lesquelles figurent de grands noms comme Facebook, TikTok et Google, soumettent des rapports annuels décrivant les dommages potentiels, tels que ceux ayant un impact sur la santé mentale des utilisateurs. Cependant, l’étude, menée par le groupe de coordination de la société civile (CSCG) de l’ASD, a révélé que ces rapports sont souvent loin d’aborder de manière exhaustive les dangers réels posés par les fonctionnalités des plateformes.

Surveillance et responsabilité des plateformes

Bien que les plateformes soient également tenues de procéder à des évaluations ad hoc des risques avant d’introduire de nouvelles fonctionnalités ou de nouveaux produits dans l’UE, le rapport du CSCG souligne la nécessité d’adopter une approche plus globale. Il affirme que de nombreux rapports actuels donnent la priorité à la modération des contenus tout en négligeant la manière dont la conception des plateformes peut elle-même contribuer à des risques systémiques tels que les problèmes de santé mentale, la polarisation politique et la diffusion de contenus préjudiciables.

Engagement des parties prenantes et transparence

Le groupe souligne l’importance de la transparence pour instaurer la confiance avec les utilisateurs et les régulateurs. De nombreux rapports soumis manquent de données vérifiables pour étayer les affirmations relatives à l’efficacité des mesures d’atténuation mises en œuvre. Pour renforcer leur crédibilité, les plateformes devraient divulguer des données quantitatives et qualitatives, y compris des indicateurs sur l’exposition aux contenus préjudiciables et sur l’utilisation des outils de contrôle par les utilisateurs.

En outre, le CSCG préconise un engagement significatif des parties prenantes dans les processus d’évaluation des risques. Il s’agit notamment d’impliquer les organisations de la société civile, les chercheurs et les communautés concernées afin de s’assurer que les préoccupations du monde réel sont correctement prises en compte dans les évaluations des risques et les stratégies d’atténuation.

Recommandations et orientations futures

Le rapport conclut que si la première série de rapports d’évaluation des risques de l’ASD représente un pas vers une plus grande responsabilité, des améliorations significatives sont nécessaires. Les plateformes doivent s’attaquer en priorité aux risques liés à la conception, accroître la transparence grâce à des données vérifiables et s’engager activement auprès des parties prenantes pour favoriser la sécurité des utilisateurs et instaurer la confiance.

Si vous souhaitez accéder à tous les articles, abonnez-vous ici!

Plus
03:00