Principaux renseignements
- Les criminels exploitent les outils d’IA comme Claude pour des activités malveillantes telles que l’infiltration de réseaux et le vol de données.
- L’IA abaisse la barrière à l’entrée de la cybercriminalité, permettant aux individus de mener des attaques sophistiquées qui nécessitaient auparavant l’intervention d’équipes d’experts.
L’utilisation de l’intelligence artificielle dans les cyberattaques est en hausse, selon un rapport de veille sur les menaces rédigé par Anthropic, les créateurs du chatbot Claude. Anthropic prévient que les criminels exploitent les outils d’intelligence artificielle tels que Claude à diverses fins malveillantes.
Menaces émergentes
Ces menaces comprennent l’infiltration de réseaux, le vol de données sensibles et l’élaboration de demandes d’extorsion hautement personnalisées visant à maximiser la vulnérabilité des victimes. Dans certains cas, les attaquants ont exigé des rançons dépassant 500 000 dollars (430.000 euros).
Le rapport révèle que 17 organisations de divers secteurs tels que la santé, le gouvernement et la religion ont été ciblées au cours du seul mois dernier. Les capacités de Claude ont joué un rôle déterminant dans l’identification des vulnérabilités, la sélection des cibles et la détermination des données à extraire.
Abaisser les barrières
Jacob Klein, directeur d’Anthropic, souligne que l’IA a considérablement abaissé la barrière à l’entrée de la cybercriminalité. Des opérations qui nécessitaient auparavant des équipes d’experts qualifiés peuvent désormais être réalisées par un seul individu grâce à des outils d’IA.
Le rapport fait également la lumière sur les agents nord-coréens qui utilisent Claude pour se faire passer pour des programmeurs à distance auprès d’entreprises américaines. Cette tactique vise à canaliser des fonds vers les programmes d’armement de la Corée du Nord. Claude permet à ces agents de communiquer efficacement avec leurs employeurs et d’effectuer des tâches pour lesquelles ils ne disposeraient pas des compétences nécessaires.
Contourner l’expertise
Historiquement, les travailleurs nord-coréens ont suivi des années de formation rigoureuse pour occuper de telles fonctions. Toutefois, les modèles d’IA comme Claude ont effectivement éliminé cette exigence.
En outre, Anthropic a documenté l’émergence de systèmes de fraude alimentés par l’IA et disponibles à l’achat en ligne. Il s’agit par exemple d’un robot Telegram conçu pour les escroqueries à la romance, qui utilise des capacités multilingues pour manipuler les victimes sur le plan émotionnel et leur soutirer de l’argent.

