La fraude liée aux cryptomonnaies augmente grâce à l’IA


Principaux renseignements

  • Les escroqueries liées aux cryptomonnaies ont augmenté de 456 % au cours de l’année dernière.
  • Les escrocs utilisent des imitations profondes à base d’IA pour se faire passer pour des personnes de confiance.
  • Les experts avertissent que l’IA pourrait rendre les méthodes de sécurité traditionnelles inefficaces.

Les escroqueries liées aux crypto-monnaies sont en augmentation, grâce aux progrès de l’intelligence artificielle. Un rapport récent de TRM Labs révèle une augmentation stupéfiante de 456 pour cent des escroqueries à la crypto-monnaie au cours de l’année écoulée. Cette hausse alarmante est largement attribuée à la capacité de l’intelligence artificielle à générer des clips audio et vidéo deepfake convaincants.

Escroqueries aux crypto-monnaies

La gravité du problème de la fraude est indéniable. Le FBI a reçu environ 150 000 plaintes liées à des escroqueries aux crypto-monnaies en 2024, entraînant des pertes déclarées dépassant 3,9 milliards de dollars (3,4 milliards d’euros) de dollars. À l’échelle mondiale, les pertes estimées atteignent le chiffre stupéfiant de 10,7 milliards de dollars (9,3 milliards d’euros) selon les données de TRM Labs. Il est important de noter que ces chiffres sous-estiment probablement l’ampleur réelle du problème, car on estime que seulement 15 pour cent des victimes signalent de tels crimes.

Ces escroqueries représentent une évolution significative par rapport aux attaques traditionnelles de type « dépeçage de cochon », qui s’appuyaient principalement sur des communications textuelles. L’IA permet désormais aux escrocs de créer des contenus audio et vidéo très réalistes, capables de tromper les individus en leur faisant croire qu’ils interagissent avec des personnes de confiance, voire des proches ou des visages familiers.

TRM Labs prévient qu’à mesure que les modèles d’IA développent des capacités agentiques plus sophistiquées, leur permettant d’interagir avec des plateformes telles que le courrier électronique et d’autres applications, l’automatisation et la prévalence des escroqueries augmenteront de manière significative.

Sam Altman

Sam Altman, PDG d’OpenAI, a récemment fait part de ses inquiétudes quant aux implications plus larges de la fraude induite par l’IA. Il a souligné que l’IA pouvait saper les systèmes de sécurité existants, rendant ainsi obsolètes les méthodes d’authentification traditionnelles. S’exprimant lors d’une conférence sur la réglementation bancaire, Altman a insisté sur la nécessité urgente pour la société de s’attaquer à ce problème pressant en collaboration.

L’entreprise d’Altman, OpenAI, a récemment lancé un agent ChatGPT capable d’interagir avec les ordinateurs d’une manière qui ressemble au comportement humain. Cet agent peut passer d’une application à l’autre en toute transparence et exécuter des tâches à plusieurs étapes nécessitant des actions telles que la connexion à des comptes et la prise de décisions. (jv)

Plus