Principaux renseignements
- Les modèles d’IA peuvent être manipulés pour contourner les mesures de protection et exécuter des instructions nuisibles.
- Les pirates utilisent des techniques telles que l’injection rapide et la rupture de prison pour exploiter les vulnérabilités de l’IA.
- Malgré les risques potentiels, Eric Schmidt estime que l’IA possède un immense pouvoir.
L’ancien PDG de Google, Eric Schmidt, a tiré la sonnette d’alarme sur les dangers potentiels de l’intelligence artificielle, soulignant sa vulnérabilité au piratage et à l’utilisation abusive.
Potentiel de manipulation
Il a souligné que même si des mesures de protection sont en place, les modèles d’IA peuvent être manipulés pour contourner leurs restrictions, ce qui peut avoir des conséquences néfastes. M. Schmidt a cité l’exemple d’un modèle d’IA piraté qui pourrait apprendre des instructions dangereuses, par exemple comment faire du mal à quelqu’un. Bien que les entreprises responsables mettent en œuvre des mesures pour éviter de tels scénarios, Schmidt a reconnu la possibilité d’une rétro-ingénierie de ces mesures de protection.
L’ancien PDG a expliqué que les pirates informatiques utilisent différentes tactiques pour exploiter les vulnérabilités de l’IA. Dans le cas de l’injection de prompt, des commandes malveillantes sont dissimulées dans les entrées utilisateur ou les sources de données externes afin d’inciter l’IA à effectuer des actions non intentionnelles. Le jailbreaking, quant à lui, vise à contourner les protocoles de sécurité et à forcer l’IA à générer du contenu restreint ou nuisible.
De bonnes perspectives
Malgré ces inquiétudes, Schmidt reste optimiste quant au potentiel global de l’IA. Il estime que cette technologie est actuellement sous-estimée et qu’elle recèle un énorme pouvoir de transformation pour l’humanité.
Suivez également Business AM sur Google Actualités
Si vous souhaitez accéder à tous les articles, abonnez-vous ici!

