Des données ont été volées sur un compte Google Drive à cause d’une fuite inquiétante dans ChatGPT


Principaux renseignements

  • Des chercheurs ont découvert une vulnérabilité dans ChatGPT permettant le vol de données à partir de comptes Google Drive connectés.
  • L’attaque utilise un document « empoisonné » contenant des invites cachées qui déclenchent ChatGPT pour extraire des informations sensibles sans interaction de l’utilisateur.
  • Cet incident met en évidence les risques liés à la connexion de systèmes d’intelligence artificielle à des données personnelles ou professionnelles et souligne la nécessité de mettre en place des mesures de protection contre les injections indirectes de messages-guides.

Des chercheurs en sécurité ont dévoilé une vulnérabilité inquiétante dans ChatGPT lors de la conférence Black Hat à Las Vegas. En utilisant un seul document « empoisonné », ils ont pu extraire des données sensibles d’un compte Google Drive connecté sans aucune interaction de la part de l’utilisateur.

Instructions malveillantes

Cet exploit utilise la fonction Connecteurs de ChatGPT et s’appuie sur une technique appelée « zéro-clic ». L’attaque, nommée AgentFlayer par les chercheurs Michael Bargury et Tamir Ishay Sharbat de Zenity, consiste à envoyer à un utilisateur peu méfiant un document partagé contenant une invite cachée. Cette invite, écrite en texte blanc avec une taille de police minuscule, est invisible à l’œil humain mais facilement lisible par ChatGPT.

Lorsque l’utilisateur pose une question apparemment anodine, telle qu’un résumé de réunion, ChatGPT est la proie des instructions malveillantes cachées dans l’invite. Au lieu de fournir un résumé, l’IA exécute des instructions telles que la recherche de clés API dans le Drive et leur envoi à un serveur externe par le biais d’un lien image déguisé.

Vol de données

Bargury souligne que cette attaque est entièrement passive ; les utilisateurs n’ont pas besoin d’ouvrir le document ou de faire quoi que ce soit. Le simple fait de partager le document avec leur compte Google suffit à déclencher le vol de données.

OpenAI, les créateurs de ChatGPT, ont été informés de cette vulnérabilité au début de l’année et ont mis en place des contre-mesures. Toutefois, cet incident met en évidence les risques potentiels associés à la connexion de systèmes d’intelligence artificielle à des données personnelles ou professionnelles.

Google reconnaît que si ce problème n’est pas spécifique à sa plateforme Drive, il souligne l’importance de la protection contre les « injections d’invite indirectes ». À mesure que les intégrations d’IA avec des sources externes se généralisent, le risque que des pirates intègrent des instructions malveillantes dans les données des utilisateurs augmente considérablement. (fc)

Plus