Une étude met en garde contre la forte croissance de la fraude à l’IA et aux deepfakes


Principaux renseignements

  • Seulement sept pour cent des organisations se sentent adéquatement armées contre l’essor rapide de la fraude basée sur l’IA.
  • Les criminels utilisent massivement l’IA générative et les deepfakes pour le phishing et la falsification de documents.
  • Les entreprises investissent plus lentement dans les technologies défensives et prennent du retard en matière de contrôle et de gouvernance.

Le développement fulgurant de l’intelligence artificielle et des deepfakes fournit de nouveaux outils aux fraudeurs, alors que les entreprises peinent à suivre ce rythme. C’est ce qui ressort du dernier rapport de l’Association of Certified Fraud Examiners et de l’entreprise technologique SAS. L’enquête, menée auprès de 713 spécialistes de la lutte contre la fraude dans le monde entier, révèle que la menace augmente dans tous les secteurs. Pourtant, à peine sept pour cent des professionnels estiment que leur organisation est prête, de manière supérieure à la moyenne, à faire face à cette nouvelle vague de criminalité.

Les criminels en tête

Au cours des deux dernières années, les experts ont constaté une forte augmentation de presque toutes les formes de fraude liée à l’IA. L’ingénierie sociale par deepfake se démarque particulièrement. À ce sujet, 77 pour cent des personnes interrogées signalent une augmentation légère à forte. La falsification de documents via l’IA générative et les escroqueries classiques affichent également un score très élevé de 75 pour cent.

« Les données dressent un tableau inquiétant, car la fraude évolue plus vite que la capacité de la plupart des organisations à se protéger », déclare John Gill, président de l’ACFE. « Les menaces liées à l’IA ne sont pas le futur, elles sont déjà là et s’accélèrent fortement. »

Adoption et limites budgétaires

Pour se défendre, 25 pour cent des organisations utilisent actuellement l’IA ou l’apprentissage automatique. Ce chiffre est de 18 pour cent supérieur à celui de 2024. De plus, 28 pour cent prévoient une intégration d’ici 2028. Bien que les budgets consacrés à la lutte contre la fraude augmenteront dans plus de la moitié des organisations, les limites financières restent le principal obstacle pour 84 pour cent d’entre elles.

Par ailleurs, la gouvernance est à la traîne. Bien que la précision des modèles d’IA soit une priorité pour 86 pour cent des entreprises, à peine 18 pour cent testent ces systèmes pour détecter les biais. Seuls six pour cent peuvent expliquer avec certitude comment leurs modèles de fraude prennent des décisions. Les banques et autres secteurs fortement réglementés risquent ainsi des problèmes juridiques.

La biométrie physique gagne du terrain

Entre-temps, la biométrie physique gagne du terrain. Près de la moitié des organisations l’appliquent désormais. L’IA générative et les agents intelligents sont au programme de nombreuses entreprises, mais le déploiement effectif reste limité pour l’instant.

« Les cybercriminels n’ont pas de comités de contrôle et ne doivent pas attendre de budgets », déclare Stu Bradley, vice-président chez SAS. Il constate que les criminels profitent immédiatement de chaque retard. L’adoption rapide de nouveaux mécanismes de défense est selon lui cruciale pour endiguer les risques croissants.

Suivez également Business AM sur Google Actualités

Si vous souhaitez accéder à tous les articles, abonnez-vous ici !

Plus