Ministre américain de la Défense s’entretient avec le PDG d’Anthropic au sujet de l’éthique de l’IA


Principaux renseignements

  • Le secrétaire à la Défense Hegseth recherche une technologie d’IA libre de toute contrainte idéologique, privilégiant les applications militaires « légales ».
  • Le PDG d’Anthropic, Dario Amodei, exprime ses préoccupations éthiques concernant l’utilisation incontrôlée de l’IA par le gouvernement, en particulier son potentiel dans le domaine des armes autonomes et de la surveillance de masse.
  • La recherche par le Pentagone de capacités en matière d’IA met en évidence un débat sur l’équilibre entre la sécurité nationale et le développement et le déploiement responsables de l’intelligence artificielle.

La prochaine rencontre entre le secrétaire à la Défense Pete Hegseth et Dario Amodei, PDG d’Anthropic, met en évidence les préoccupations croissantes concernant l’utilisation de l’intelligence artificielle par l’armée. Anthropic, créateur du chatbot Claude, est la seule entreprise d’IA parmi ses pairs à ne pas fournir de technologie au nouveau réseau interne du Pentagone.

Dans un essai, Amodei a publiquement exprimé ses réserves éthiques concernant l’utilisation incontrôlée de l’IA par le gouvernement, citant des dangers tels que les armes autonomes et la surveillance de masse visant les dissidents. Cette rencontre souligne un débat plus large sur le rôle de l’IA dans la sécurité nationale, en particulier son application potentielle dans des scénarios à haut risque impliquant la force létale, des données sensibles et la surveillance gouvernementale.

La position de Hegseth sur la suppression de ce qu’il considère comme une « culture woke » au sein des forces armées complique encore davantage la question. Amodei a averti que de puissants systèmes d’IA pourraient analyser l’opinion publique, détecter des poches de déloyauté et les réprimer avant qu’elles ne se développent.

Paysage divisé

Alors qu’Anthropic a été la première entreprise d’IA à être approuvée pour les réseaux militaires classifiés, en partenariat avec des entreprises telles que Palantir, ses concurrents Google, OpenAI et xAI opèrent actuellement dans des environnements non classifiés. Hegseth a spécifiquement mis l’accent sur xAI et Google, affirmant sa préférence pour les systèmes d’IA exempts de contraintes idéologiques qui limitent les applications militaires légales, et affirmant que l’IA du Pentagone ne sera pas « woke ».

OpenAI a rejoint la plateforme IA sécurisée du Pentagone en février, permettant aux militaires d’utiliser une version personnalisée de ChatGPT pour des tâches non classifiées. La position d’Anthropic en tant que leader soucieux de la sécurité parmi les entreprises d’IA est désormais mise à l’épreuve. Owen Daniels, analyste au Center for Security and Emerging Technology de l’université de Georgetown, suggère que le pouvoir de négociation d’Anthropic est limité en raison de la volonté de ses pairs de se conformer à la politique du Pentagone consistant à utiliser des modèles pour toutes les applications légales.

Équilibre entre sécurité et sûreté

Anthropic s’est aligné sur l’administration du président Biden en soumettant volontairement ses systèmes d’IA à un examen par des tiers afin d’atténuer les risques pour la sécurité nationale. Amodei reconnaît les dangers potentiels de l’IA, mais refuse d’être qualifié de « pessimiste en matière d’IA », arguant que ces risques peuvent être gérés de manière réaliste et pragmatique.

Ce n’est pas la première fois qu’Anthropic entre en conflit avec le gouvernement au sujet des mesures de protection de l’IA. Sous l’administration Trump, Anthropic a publiquement critiqué les propositions visant à assouplir les contrôles à l’exportation des puces d’IA destinées à la Chine. L’entreprise s’est également opposée aux efforts de lobbying visant à réglementer l’IA dans les États américains. Cela lui a valu les critiques de David Sacks, l’un des principaux conseillers de Trump en matière d’IA.

À la recherche d’un soutien

Malgré ces tensions, Anthropic a cherché à adopter une approche bipartite en nommant Chris Liddell, un ancien responsable de l’administration Trump, au sein de son conseil d’administration.


Le débat entre le Pentagone et Anthropic fait écho à des controverses passées. À l’époque, des employés du secteur technologique s’étaient opposés à la participation de leur entreprise au projet Maven. Ce projet était un programme de surveillance par drones du Pentagone. Certains employés ont démissionné pour marquer leur désaccord. Google s’est ensuite retiré du projet. Malgré cela, le Pentagone continue de s’appuyer sur la surveillance par drones.

Les experts avertissent que l’utilisation de l’IA dans le contexte militaire est déjà une réalité qui ne devrait pas disparaître. Si certaines applications, telles que les tâches administratives, présentent moins de risques, les déploiements sur le champ de bataille impliquant des forces ou des armes létales soulèvent des préoccupations importantes. L’armée est consciente de ces risques et explore des stratégies d’atténuation depuis près d’une décennie.

(jw)(fc)

Suivez également Business AM sur Google Actualités

Si vous souhaitez accéder à tous les articles, abonnez-vous ici!

Plus