La Commission européenne a dévoilé aujourd’hui un nouveau plan visant à obliger les plateformes en ligne à détecter et à signaler le partage d’abus sexuels sur Internet. Toutefois, la proposition obligerait les entreprises technologiques à analyser activement les messages privés et le contenu des utilisateurs pour y trouver des images d’éventuels abus sexuels sur des enfants. Les experts en matière de protection de la vie privée estiment que la réglementation conduira à un régime de surveillance invasive en Europe.
« Nous ne parvenons pas à protéger les enfants aujourd’hui », a déclaré la commissaire européenne Ylva Johansson lors d’une conférence de presse mercredi. Elle a qualifié ce plan de révolutionnaire et a déclaré qu’il ferait de l’Europe un leader mondial dans la lutte contre les abus sexuels sur les enfants en ligne.
En vertu de la nouvelle proposition, les pays européens pourront exiger des entreprises telles que Meta et Apple qu’elles mettent en place des systèmes de surveillance complets pour repérer les cas d’abus sexuels sur des enfants. Le système devrait analyser les messages, les photos et les vidéos des utilisateurs pour détecter d’éventuels abus sur les enfants et, en cas de « coup sûr », faire intervenir la police.
Le nouveau plan propose également d’utiliser l’intelligence artificielle (IA) pour détecter les modèles de langage dans les conversations qui sont liés aux abus sexuels.
Document effrayant
« Ce document est la chose la plus terrifiante que j’aie jamais vue », déclare Matthew Green, professeur de cryptographie. « Il décrit la surveillance de masse la plus avancée jamais déployée en dehors de la Chine et de l’URSS. Ce n’est pas une exagération ».
Jan Penfrat, du groupe de défense des droits numériques European Digital Rights, est également inquiet. « Cela ressemble à une loi de surveillance générale scandaleuse, totalement inappropriée pour une démocratie libre. »
Cryptage de bout en bout impossible
Selon les experts en matière de protection de la vie privée, la proposition pourrait également menacer sérieusement le cryptage de bout en bout. Exiger des entreprises qu’elles installent dans leurs systèmes tous les logiciels que l’UE juge nécessaires pour détecter les abus sur les enfants rendrait le cryptage presque impossible. En raison de l’influence de l’UE sur la politique numérique, les mêmes mesures pourraient également s’étendre à des États autoritaires.
« Si la proposition est mise en œuvre, ce serait un désastre pour la vie privée des utilisateurs, non seulement dans l’UE, mais dans le monde entier. L’argument des abus sexuels envers les enfants est une fois de plus utilisé comme un lubrifiant pour faire passer ces règles invasives », analyse Joe Mullin, analyste politique principal à l’Electronic Frontier Foundation.
La vie privée numérique est une question de vie ou de mort, non seulement dans des pays comme la Chine et la Russie, mais ailleurs dans le monde, les journalistes, les militants, les lanceurs d’alerte et les critiques en dépendent.
La Russie en est un bon exemple. Bien que l’homosexualité ait été dépénalisée dans le pays peu après la chute de l’Union soviétique, les gays, lesbiennes, bisexuels et transsexuels sont souvent victimes de discriminations de la part du gouvernement ou de confrontations violentes. La confidentialité est donc extrêmement importante pour eux.
Des filtres anti-spam peu fiables
Le plan d’intelligence artificielle, qui vise à détecter les modèles de langage associés à la maltraitance d’enfants, fait également l’objet de critiques. Pour les trouver, il faudrait utiliser des scanners algorithmiques, qui, selon les experts, peuvent être sujets à des erreurs, laissant des personnes innocentes sous la surveillance de leur gouvernement.
« Il suffit de voir à quel point les filtres anti-spam ne sont pas fiables. Ils sont utilisés dans nos courriels depuis 20 ans, mais nous les recevons toujours. Cela montre vraiment les limites de ces technologies », explique Ella Jakubowska, conseillère politique auprès de l’organisation European Digital Rights, à The Verge.
Apple a fait marche arrière
Dans le passé, il y a eu du remue-ménage lorsque Apple a proposé quelque chose de similaire pour trouver les abus sur les enfants. Lorsque la société a présenté ses plans l’été dernier, elle a fait marche arrière après de nombreuses critiques. À l’époque, le géant technologique avait déclaré qu’il commencerait à analyser les messages des utilisateurs de moins de 17 ans et les préviendrait s’ils étaient sur le point d’envoyer ou de recevoir du matériel « sexuel ».
La société a également proposé de scanner le contenu d’iCloud à la recherche de contenu relatif aux abus, afin d’alerter le National Center for Missing and Exploited Children en trouvant du contenu incriminé. Toutefois, le projet a été abandonné à la suite de l’opposition farouche des organisations de défense de la vie privée.