Principaux renseignements
- Des groupes chinois utilisent ChatGPT pour des activités secrètes.
- Ces groupes utilisent une technologie d’IA générative comme ChatGPT pour produire des textes et des images d’apparence humaine, ce qui soulève des inquiétudes quant à son utilisation abusive potentielle.
- Les acteurs chinois de la menace ont utilisé l’IA pour soutenir différentes étapes de leurs cyber-opérations, y compris la recherche de sources ouvertes, la modification de scripts et le forçage brutal de mots de passe.
Les récentes découvertes de l’OpenAI révèlent une tendance croissante des groupes chinois à utiliser le ChatGPT pour des activités secrètes. Malgré l’élargissement de la portée et des tactiques employées par ces groupes, les opérations détectées restent relativement modestes et ciblent des publics limités.
Émergence de la technologie d’IA générative
L’OpenAI attribue cette augmentation à l’émergence d’une technologie d’IA générative telle que ChatGPT, qui peut produire sans effort du texte, des images et du son semblables à ceux d’un humain, ce qui soulève des inquiétudes quant à son utilisation abusive potentielle. L’entreprise publie régulièrement des rapports détaillant les activités malveillantes détectées sur sa plateforme, notamment la création et le débogage de logiciels malveillants, ainsi que la génération de contenus trompeurs pour les sites web et les médias sociaux.
Un exemple cité par OpenAI concerne l’interdiction de comptes ChatGPT utilisés pour générer des messages à caractère politique sur les médias sociaux en rapport avec la Chine. Ces messages comprenaient des critiques d’un jeu vidéo centré sur Taïwan, de fausses accusations contre un activiste pakistanais et du contenu lié à la fermeture de l’USAID. Notamment, de nombreuses opérations ont généré à la fois des messages initiaux et des réponses correspondantes, créant ainsi l’illusion d’un véritable engagement.
L’IA utilisée pour des campagnes d’influence
En outre, l’OpenAI a découvert des cas où des acteurs de la menace liés à la Chine ont utilisé l’IA pour soutenir différentes étapes de leurs cyber-opérations. Il s’agit notamment de la recherche de sources ouvertes, de la modification de scripts, du dépannage de configurations de systèmes et du développement d’outils de forçage brutal de mots de passe et d’automatisation des médias sociaux. Un autre exemple concerne une opération d’influence d’origine chinoise générant un contenu polarisé sur les médias sociaux soutenant des points de vue opposés sur des questions politiques américaines controversées, en utilisant à la fois du texte et des images de profil générées par l’IA.
Si les conclusions de l’OpenAI mettent en évidence la tendance inquiétante de l’utilisation abusive de ChatGPT par des groupes chinois, Nimmo a souligné que ces opérations ont été largement perturbées à leurs débuts et qu’elles n’ont pas atteint une large portée. Il a conclu qu’en dépit de l’accès à des outils avancés, ces opérations n’ont pas eu d’impact significatif en raison de leurs limites inhérentes.
Si vous souhaitez accéder à tous les articles, abonnez-vous ici!