Principaux renseignements
- Les outils permettant de créer de fausses vidéos et de faux enregistrements audio sont étonnamment bon marché, accessibles et efficaces.
- Rien qu’au Royaume-Uni, on estime que les consommateurs britanniques ont perdu 9,4 milliards de livres sterling (10,8 milliards d’euros) à cause de la fraude à l’IA au cours des neuf premiers mois de 2025.
- À l’heure actuelle, la technologie de clonage vocal est déjà au point. Cela permet aux escrocs de tromper facilement les gens.
La fraude par deepfake n’est plus un problème à petite échelle, mais est devenue « industrielle ». C’est ce qui ressort d’une étude de l’AI Incident Database. Les outils permettant de créer de fausses vidéos et de faux enregistrements audio sont étonnamment bon marché, accessibles et efficaces.
Modèle économique
La fraude par deepfake est devenue un modèle économique pour les escrocs. Les mêmes schémas reviennent souvent. Des visages connus et familiers, allant des politiciens et présentateurs de journaux télévisés aux entrepreneurs et célébrités, sont utilisés à mauvais escient pour promouvoir de prétendues opportunités d’investissement, des plateformes de cryptomonnaies ou des produits de santé. Ces vidéos sont diffusées sur les réseaux sociaux et atteignent ainsi leurs victimes.
Les médecins en deepfake sont également très prisés des escrocs. Ils font la promotion de toutes sortes de produits de bien-être et de santé.
Rien qu’au Royaume-Uni, on estime que les consommateurs britanniques ont perdu 9,4 milliards de livres sterling (10,8 milliards d’euros) à cause de la fraude à l’IA au cours des neuf premiers mois de 2025.
Mineurs
Les images sexuelles non consenties sont l’un des phénomènes les plus alarmants mis en évidence par l’étude. De novembre 2025 à janvier 2026, plusieurs cas graves impliquant des écoles et des mineurs ont été signalés. Les jeunes ont été la cible d’images falsifiées, souvent diffusées dans leur environnement scolaire.
De plus en plus réalistes
« Les modèles s’améliorent et deviennent de moins en moins chers, presque tout le monde peut désormais les utiliser », explique Fred Heiding, chercheur à Harvard qui mène des recherches sur l’IA et la cybersécurité, dans The Guardian. Il souligne que le pire reste à venir. Actuellement, la technologie de clonage vocal est déjà au point. Cela permet aux escrocs de tromper facilement les gens. Cependant, selon lui, la technologie des deepfakes vidéo n’est pas encore au point. (at)
Suivez également Business AM sur Google Actualités
Si vous souhaitez accéder à tous les articles, abonnez-vous ici!

