Principaux renseignements
- Andrej Karpathy met en garde contre le déploiement non contrôlé de grands modèles linguistiques en raison de leur tendance à halluciner les faits.
- Ces modèles peuvent présenter des problèmes de mémoire et manquer de conscience de soi, ce qui les rend sujets à des erreurs qu’aucun humain ne commettrait.
- Les experts en IA soulignent la nécessité pour les développeurs de rester activement impliqués dans l’élaboration des messages-guides et la vérification des résultats.
La communauté technologique s’inquiète de plus en plus du déploiement effréné de l’intelligence artificielle (IA), en particulier des agents autonomes. Andrej Karpathy, cofondateur d’OpenAI, préconise une approche prudente, comparant les grands modèles linguistiques (large language models, LLM) actuels à des simulations « spirituelles » de l’intelligence humaine. Ces modèles, bien qu’ils soient capables d’accomplir des exploits impressionnants comme générer des milliers de lignes de code en quelques secondes, sont sujets à des erreurs qu’aucun humain ne commettrait. Karpathy souligne leur tendance à halluciner des faits, à manquer de conscience de soi et à présenter des problèmes de mémoire. Il insiste sur la nécessité pour les développeurs de rester activement impliqués, en élaborant méticuleusement des messages-guides et en vérifiant les résultats.
Les préoccupations sont partagées
L’appel à la prudence de Karpathy est relayé par d’autres experts en IA. Bob McGrew, ancien responsable de la recherche chez OpenAI, insiste sur la nécessité permanente d’ingénieurs humains pour guider l’IA et intervenir en cas de complexité. De même, Kent Beck, figure éminente du développement de logiciels, compare les agents d’IA à des génies, capables de répondre à des demandes mais produisant souvent des résultats inattendus. Il met en garde contre une confiance aveugle dans l’IA pour le codage, soulignant sa nature imprévisible.
Intégration dans les flux de travail technologiques
Malgré ces préoccupations, les grandes entreprises technologiques intègrent de plus en plus l’IA dans leurs flux de travail. Alphabet, par exemple, indique que l’IA contribue désormais à plus de 30 pour cent de son nouveau code, ce qui représente une augmentation significative par rapport à l’année précédente. L’avenir de l’IA dans le codage reste un paysage en évolution, marqué à la fois par un immense potentiel et la nécessité de pratiques de développement et de déploiement responsables.