Si vous vous questionnez sur les dangers potentiels de l’intelligence artificielle, la popularité croissante des applications qui déshabillent numériques les femmes sur des photos est le parfait exemple. Ou comment une technologie peut être utilisée à des fins néfastes ou malsaines.
Les smartphones comme armes : l’IA stimule la popularité des applications « Nudify » qui déshabillent numériquement les femmes sur les photos

Pourquoi est-ce important ?
Les implications éthiques et juridiques de cette technologie sont importantes, compte tenu de sa nature non consensuelle et des violations de la vie privée qu'elle entraîne. Cette tendance révèle une évolution inquiétante dans la manière dont l'IA est utilisée à des fins malveillantes et d'exploitation.Dans l’actualité : en septembre, 24 millions de personnes ont consulté de tels outils. Grâce à une forte présence marketing sur les réseaux sociaux tels que X et Reddit, selon une étude de Graphika.
- Ces services, principalement ciblés sur les femmes, créent des images de nu sans le consentement ou la connaissance des personnes concernées.
- Au début du mois d’octobre, une ville d’Espagne a fait la une de l’actualité mondiale. Plusieurs jeunes écolières ont déclaré avoir reçu de fausses photos d’elles nues. Celles-ci avaient été créées à l’aide d’une « application de déshabillage » d’IA facilement accessible.
+ 2.400 % dans les publicités
Zoom avant : une croissance de plus de 2.400 % des publicités pour ces applications sur les médias sociaux depuis le début de l’année.
- Ces applications permettent de manipuler des photos d’individus, à leur insu et sans leur consentement, pour les montrer nus.
- Un exemple de cet abus est le scénario dans lequel une personne utilise une application deepfake pour manipuler la photo d’un collègue ou d’un camarade de classe, en donnant l’impression que la personne est nue.
- Cette image truquée est ensuite partagée dans l’environnement social ou professionnel, ce qui peut entraîner un préjudice et une atteinte à la vie privée.
« Comme pour Internet, la pornographie va désormais jouer un rôle révolutionnaire »
Zoom arrière : l’essor de la deepfake pornography devient une tendance plus large dans le domaine de l’intelligence artificielle et de l’éthique numérique.
- Cela suscite des inquiétudes quant à l’impact de ces technologies sur la sécurité globale d’Internet et la protection de la vie privée.
- Actuellement, il n’existe pas de législation fédérale américaine limitant la production de deepfake pornography. Toutefois, la production de telles images de mineurs est illégale.
- En novembre, un pédopsychiatre de Caroline du Nord a été condamné à 40 ans de prison pour avoir utilisé des applications de déshabillage sur les photos de ses patients.
- Il s’agit de la première affaire judiciaire de ce type à tomber sous le coup de la législation contre la production de matériel falsifié lié à la maltraitance des enfants.
- TikTok et Meta Platforms Inc ont pris des mesures pour bloquer les termes de recherche liés aux applications de déshabillage. Les applications spécifiques seront peut-être interdites, mais la technologie elle-même ne disparaîtra pas.
Résumé : ce développement dans l’intelligence artificielle montre une tendance inquiétante dans la manipulation d’images non consensuelles, soulignant la nécessité d’une plus grande sensibilisation et d’une réglementation plus stricte.
(JM)