Le Pentagone désigne Anthropic comme un risque pour la chaîne d’approvisionnement en IA


Principaux renseignements

  • Le Pentagone a désigné Anthropic comme un risque pour la chaîne d’approvisionnement en raison des craintes que ses modèles d’IA Claude puissent entraîner une inefficacité des technologies militaires.
  • Anthropic a intenté un procès contre l’administration Trump, affirmant que cette désignation est illégale et menace ses contrats.
  • Malgré cette désignation, le Pentagone a précisé qu’il ne sanctionnait pas Anthropic et reconnaissait l’importance des activités commerciales de l’entreprise.

Le directeur technique du Pentagone, Emil Michael, a exprimé ses inquiétudes concernant les modèles d’IA Claude d’Anthropic, affirmant qu’ils constituent un risque pour la chaîne d’approvisionnement de la défense, selon CNBC. Il a expliqué que ces modèles sont imprégnés d’une « préférence politique différente », qui pourrait conduire au développement d’armes et d’équipements de protection inefficaces pour le personnel militaire.

Désignation de risque 

Cette position a conduit Anthropic à être la première entreprise américaine à être désignée comme présentant un risque pour la chaîne d’approvisionnement, une désignation généralement réservée aux entités étrangères. Cette décision oblige les sous-traitants et les fournisseurs du secteur de la défense à certifier qu’ils n’utilisent pas Claude dans le cadre de leur collaboration avec le Pentagone.

Anthropic a réagi en intentant un procès contre l’administration Trump. Son argument était que cette directive était « sans précédent et illégale » et mettait en péril des contrats d’une valeur de plusieurs centaines de millions de dollars.

Position du Pentagone

Michael a clarifié la position du Pentagone. Il a également souligné que cette décision n’avait pas pour but de pénaliser l’entreprise. Michael a reconnu l’importance des activités commerciales d’Anthropic. Il a indiqué que seule une petite partie de ses activités concernait le gouvernement américain. Il a également démenti les rumeurs selon lesquelles le Pentagone découragerait activement les entreprises d’utiliser les produits d’Anthropic.

Fondée en 2021 par d’anciens chercheurs et cadres d’OpenAI, Anthropic est réputée pour ses modèles d’IA Claude, qui ont gagné en popularité auprès des grandes entreprises, y compris le DOD. La société a élaboré une « constitution » pour guider la formation de ses modèles Claude, affirmant qu’elle joue un « rôle crucial » dans le façonnement du comportement de l’IA et dans la garantie de son utilité, tout en respectant les directives en matière de sécurité, d’éthique et de conformité.

(jw)(fc)

Suivez également Business AM sur Google Actualités

Si vous souhaitez accéder à tous les articles, abonnez-vous ici !

Plus