Principaux renseignements
- Les modèles d’IA avancés sont capables de mener de manière autonome des attaques contre des réseaux informatiques.
- Différents modèles d’IA affichent des taux de réussite variables en matière d’autoreproduction, certains systèmes commerciaux affichant des performances remarquables.
- Cette découverte révolutionnaire montre à quel point il est important de limiter les risques liés à l’IA puissante.
Une étude récente menée par Palisade Research a montré que les modèles d’IA peuvent mener des attaques informatiques.
Préoccupations en matière de cybersécurité
Les scientifiques menant ces expériences ont observé que des chatbots IA parvenaient à se copier sur de nouvelles machines et à utiliser ces copies pour perpétuer des attaques. Cette découverte révolutionnaire marque le premier cas connu d’auto-réplication autonome de l’IA, soulevant de sérieuses préoccupations en matière de cybersécurité.
L’étude, menée par Palisade Research, consistait à tester des modèles d’IA avancés d’OpenAI, d’Anthropic et d’Alibaba sur des ordinateurs présentant des failles de sécurité introduites délibérément.
Différents modèles
Au cours des expériences, les modèles d’Alibaba ont reçu pour instruction de se copier eux-mêmes, tandis que les modèles GPT et Claude ont été chargés d’installer Qwen, étant donné que leurs propres fichiers de modèle n’étaient pas accessibles au public. Chaque IA devait identifier une faille de sécurité, l’exploiter pour obtenir un accès, voler des identifiants de connexion, transférer les fichiers nécessaires et lancer une copie fonctionnelle sur la nouvelle machine. Cette chaîne d’autoreproduction s’est poursuivie, chaque copie pouvant ensuite attaquer un autre ordinateur de manière indépendante.
Un modèle d’Alibaba, Qwen3.6-27B, s’est propagé avec succès sur quatre ordinateurs situés dans différents pays en un peu plus de deux heures, démontrant ainsi la rapidité et l’efficacité de cette réplication autonome.
Besoin de contrôle robustes
Ces résultats soulignent le besoin croissant de mécanismes de contrôle robustes pour les systèmes d’IA puissants. Des inquiétudes concernant le potentiel de cyberattaques pilotées par l’IA ont déjà été exprimées par des organisations telles qu’Anthropic et METR, une association à but non lucratif spécialisée dans l’évaluation des risques liés à l’IA.
Bien que les expériences aient été menées dans un environnement contrôlé avec des systèmes rendus intentionnellement vulnérables, les chercheurs soulignent que les réseaux du monde réel emploient souvent des mesures de sécurité plus strictes. Néanmoins, cette recherche démontre sans équivoque que l’autoreproduction autonome de l’IA n’est plus un concept théorique, mais une réalité tangible nécessitant une attention urgente et des stratégies d’atténuation.
Suivez également Business AM sur Google Actualités
Si vous souhaitez accéder à tous les articles, abonnez-vous ici !

