Principaux renseignements
- À l’avenir, les cybercriminels utiliseront des assistants IA pour échapper aux systèmes de détection traditionnels.
- Les assistants IA offrent un niveau supplémentaire d’anonymat qui rend les contre-mesures classiques moins efficaces.
- L’IA pourrait causer des dommages maximaux, en particulier dans le cas des ransomwares et du vol de données.
À l’avenir, les cybercriminels pourront utiliser des assistants IA, tels que Grok et Microsoft Copilot, pour mieux dissimuler leurs attaques. C’est ce qui ressort d’une nouvelle étude menée par Check Point Research. Cette technique n’a pour l’instant pas encore été observée dans des attaques réelles. Les chercheurs avertissent toutefois que plus les assistants IA seront utilisés et feront l’objet d’une confiance accrue, plus la surface d’attaque des criminels sera importante.
Selon l’étude, les cybercriminels peuvent échapper à la détection traditionnelle en se cachant derrière une utilisation apparemment normale de l’IA. Mais les assistants IA servent en réalité de canal de communication caché entre les logiciels malveillants et les attaquants.
Une passerelle invisible
L’utilisation abusive de services cloud fiables pour le trafic dit « command-and-control » (C2) n’est pas nouvelle. Les cybercriminels cachent depuis longtemps leurs communications dans les e-mails, le stockage cloud et les outils de collaboration. Mais les faiblesses de cette approche sont également connues : les comptes peuvent être bloqués, les clés API révoquées et les locataires supprimés. La différence avec les assistants IA est qu’ils peuvent offrir un niveau supplémentaire d’anonymat via des interfaces web. Cela rend les contre-mesures classiques moins efficaces.
Les chercheurs de Check Point ont démontré que les plateformes d’IA accessibles sur le web peuvent être utilisées à des fins malveillantes pour récupérer des données et les regrouper avec des URL spécifiques. Les logiciels malveillants pourraient ainsi recevoir des instructions sans se connecter directement à un serveur suspect. Cette interaction s’effectue via des requêtes d’IA ordinaires et semble donc légitime pour les systèmes de sécurité.
L’IA comme cybercriminel
L’IA est déjà utilisée aujourd’hui pour rédiger des e-mails de phishing, générer des codes malveillants et analyser des données volées. Cela réduit également le seuil d’accès pour les cybercriminels moins expérimentés. Néanmoins, le rapport souligne une nouvelle évolution. L’IA n’est plus un simple outil, mais fait désormais partie intégrante des opérations des cybercriminels.
Au lieu de suivre des instructions préprogrammées, les logiciels malveillants pourront à l’avenir collecter des informations sur un système et les faire analyser par un assistant IA. Les cybercriminels pourront alors préparer leur attaque sur cette base. Cela pourrait avoir des conséquences importantes, en particulier dans le cas des ransomwares et du vol de données. De nombreux systèmes de sécurité déclenchent une alerte lorsqu’une grande quantité de données est copiée ou cryptée. Les attaques pilotées par l’IA seraient moins visibles, mais pourraient causer un maximum de dégâts.
Microsoft CoPilot
Lorsque les vulnérabilités de CoPilot ont été signalées à Microsoft, l’entreprise les a confirmées et a également procédé à des modifications afin de limiter les risques. Selon Check Point, il ne s’agirait pas d’une erreur logicielle classique, mais d’un défi plus large lié à l’utilisation abusive de services de confiance. (ev)
Suivez également Business AM sur Google Actualités
Si vous souhaitez accéder à tous les articles, abonnez-vous ici!

