Principaux renseignements
- Le gouvernement britannique va interdire les applications de « nudification » qui utilisent l’IA pour retirer les vêtements des images, afin de lutter contre la misogynie en ligne et la violence à l’égard des femmes et des jeunes filles.
- Les développeurs et les distributeurs de ces applications seront tenus responsables en vertu de la nouvelle législation pour avoir profité d’une technologie nuisible.
- Les organisations de protection de l’enfance se félicitent de cette interdiction, mais préconisent d’autres mesures, notamment des protections obligatoires au niveau des appareils, afin d’empêcher la diffusion de matériel pédopornographique.
Le gouvernement britannique a l’intention d’introduire une nouvelle législation visant à lutter contre la misogynie en ligne et la violence à l’égard des femmes et des jeunes filles. Un aspect essentiel de cette stratégie consiste à interdire les applications de « nudification », qui utilisent l’intelligence artificielle (IA) pour retirer les vêtements des images.
Cibler les technologies néfastes
Ces applications sont considérées comme une menace sérieuse en raison de leur potentiel d’abus et d’exploitation. La création de deepfakes explicites non consensuels est déjà illégale en vertu de la loi sur la sécurité en ligne, mais la nouvelle législation ciblera spécifiquement ceux qui créent ou distribuent des applications de nudification, en les tenant pour responsables du fait qu’ils tirent profit d’une technologie aussi nuisible.
Les experts ont exprimé leur inquiétude face à l’essor de ces applications et à l’impact dévastateur que les images nues truquées peuvent avoir sur les victimes. Le commissaire à l’enfance pour l’Angleterre a demandé l’interdiction totale des applications de nudification, soulignant que la technologie permettant cette pratique néfaste devrait également être illégale.
Collaboration avec les entreprises technologiques
Le gouvernement s’est engagé à travailler avec les entreprises technologiques pour développer des solutions efficaces contre les abus d’images intimes. Il collabore notamment avec la société britannique SafeToNet, spécialisée dans les technologies de sécurité, qui a mis au point un logiciel d’intelligence artificielle capable d’identifier et de bloquer les contenus à caractère sexuel, et d’empêcher les caméras de filmer ce type de matériel.
Ces mesures s’appuient sur les filtres existants utilisés par des plateformes telles que Meta pour détecter et signaler la nudité potentielle, souvent dans le but de protéger les enfants contre le partage d’images intimes.
Les associations de protection de l’enfance ont déjà demandé au gouvernement d’adopter une position plus ferme à l’égard des applications de nudification. L’Internet Watch Foundation (IWF), qui gère un service d’assistance téléphonique permettant aux moins de 18 ans de signaler des images explicites en ligne, a révélé que 19 pour cent des signaleurs confirmés avaient été victimes de manipulation d’images.
Les efforts doivent être poursuivis
L’IWF a salué l’interdiction des applications de nudification, affirmant que ces produits n’ont pas de but légitime et qu’ils exposent les enfants à un risque accru de préjudice. Si la NSPCC a applaudi l’initiative du gouvernement, elle s’est dite déçue par l’absence de protections obligatoires au niveau des appareils pour empêcher la diffusion de matériel pédopornographique (CSAM).
L’organisation caritative plaide pour que les entreprises technologiques mettent en œuvre des méthodes plus faciles pour identifier et empêcher la diffusion des contenus pédopornographiques, en particulier dans les messages privés. Le gouvernement s’est engagé à faire en sorte qu’il soit impossible pour les enfants de créer, de partager ou de visionner des images de nudité sur leur téléphone et cherche également à rendre illégaux les outils d’intelligence artificielle conçus pour créer ou distribuer du matériel pédopornographique.
Suivez également Business AM sur Google Actualités
Si vous souhaitez accéder à tous les articles, abonnez-vous ici!
(ns)

