Principaux renseignements
- Le ministère américain de la Défense a choisi OpenAI pour déployer ses modèles d’IA sur un réseau classifié.
- Ce partenariat pourrait entrainer un changement dans le paysage IA.
- L’engagement d’OpenAI en faveur des protocoles de sécurité et d’une utilisation responsable a probablement influencé la décision du ministère américain de la Défense au détriment d’Anthropic.
Après une semaine de turbulences politiques autour de l’utilisation de l’intelligence artificielle, le PDG d’OpenAI, Sam Altman, a annoncé un accord avec le ministère de la Défense (DoD) pour le déploiement de ses modèles d’IA sur un réseau classifié. Cette annonce intervient peu après que le président Trump ait déclaré Anthropic, une société rivale spécialisée dans l’IA, interdite d’accès aux agences gouvernementales pour des raisons de sécurité nationale.
Anthropic sur liste noire
La décision du DoD de s’associer à OpenAI annonce un changement potentiel dans le paysage du développement et du déploiement de l’IA au sein de l’armée. Altman a souligné le respect des protocoles de sécurité par le DoD et son approche collaborative visant à obtenir des résultats optimaux. Il a insisté sur le fait qu’OpenAI et le DoD partagent des principes fondamentaux en matière de sécurité de l’IA, notamment l’interdiction de la surveillance de masse au niveau national et la garantie de la responsabilité humaine dans l’usage de la force, même dans les systèmes d’armes autonomes.
L’accord conclu entre OpenAI et le DoD contraste fortement avec la récente mise sur liste noire d’Anthropic. Anthropic a déployé la première ses modèles sur le réseau classifié du DoD. L’entreprise négociait les termes du contrat avant que les pourparlers ne soient rompus. Elle exigeait des garanties : ses modèles ne devraient pas servir à des armes autonomes ni à la surveillance de masse. Le DoD, lui, revendiquait des droits d’utilisation plus larges pour toutes les applications légales.
OpenAI investit dans la sécurité
Les raisons qui ont poussé le DoD à préférer OpenAI à Anthropic restent floues. Cependant, des responsables gouvernementaux ont déjà critiqué Anthropic pour sa prudence excessive en matière de sécurité de l’IA. Altman a souligné l’engagement d’OpenAI à mettre en œuvre des mesures de protection techniques et à déployer du personnel afin de garantir une utilisation responsable de ses modèles dans le cadre du DoD. Il a également exprimé l’espoir que ces conditions soient étendues à toutes les entreprises d’IA, plaidant en faveur d’une désescalade par le biais d’accords raisonnés plutôt que de confrontations juridiques.
Anthropic, en réponse à son inscription sur la liste noire, a exprimé sa déception et a déclaré son intention de contester la décision du DoD devant les tribunaux. (uv)
Suivez également Business AM sur Google Actualités
Si vous souhaitez accéder à tous les articles, abonnez-vous ici!

