Principaux renseignements
- La sénatrice Elizabeth Warren remet en question la désignation d’Anthropic comme « risque pour la chaîne d’approvisionnement » par le ministère de la Défense.
- Warren s’inquiète d’une éventuelle utilisation abusive de l’intelligence artificielle par le ministère de la Défense à des fins de surveillance ou pour le développement d’armes autonomes.
- Le manque de transparence entourant les accords du ministère de la Défense avec Anthropic et OpenAI alimente les inquiétudes quant à une éventuelle utilisation abusive des technologies d’IA.
La sénatrice Elizabeth Warren s’inquiète de la récente désignation d’Anthropic comme « risque pour la chaîne d’approvisionnement » par le ministère de la Défense. Elle estime que cette décision pourrait être une mesure de rétorsion et suggère que des mesures moins radicales auraient pu être prises pour rompre les liens avec l’entreprise, telles que la résiliation du contrat ou la limitation de l’utilisation de la technologie d’Anthropic aux systèmes non classifiés.
Risque d’utilisation abusive
Les inquiétudes de Warren découlent du risque que le ministère de la Défense utilise à mauvais escient la technologie d’IA pour surveiller les citoyens américains ou développer des armes autonomes sans garanties adéquates. Sa lettre adressée au secrétaire à la Défense Pete Hegseth met en avant ces inquiétudes et remet en question les motivations du ministère. Cette situation survient dans un contexte de conflit en cours en Iran, où le ministère de la Défense continue d’utiliser le modèle Claude d’Anthropic malgré cette récente désignation.
Avant l’apposition du label « risque lié à la chaîne d’approvisionnement », des tensions existaient entre le DoD et Anthropic concernant l’accès aux modèles d’IA de l’entreprise. Alors que le DoD cherchait à obtenir un accès illimité à toutes « fins légales », Anthropic exigeait l’assurance que sa technologie ne serait pas utilisée pour des armes autonomes ou la surveillance de masse sur le territoire national. Ce conflit a culminé avec l’annonce de Hegseth ordonnant au DoD d’appliquer cette étiquette, une décision suivie par le dépôt d’une plainte par Anthropic contre l’administration Trump, affirmant que cette mise sur liste noire menaçait la sécurité nationale américaine.
OpenAI est entré en scène peu après l’inscription d’Anthropic sur la liste noire, annonçant un accord avec le DoD. L’entreprise reste convaincue que son « safety stack », les lois existantes et les termes du contrat empêcheraient toute utilisation abusive de ses systèmes d’IA à des fins de surveillance ou de développement d’armes autonomes. Cependant, cette assurance n’a pas entièrement apaisé les inquiétudes des législateurs, du public et même de certains employés d’OpenAI.
En quête de clarté
La sénatrice Warren demande également des éclaircissements au PDG d’OpenAI, Sam Altman, concernant les termes de leur accord avec le DoD. Elle craint que le contrat n’autorise le gouvernement à utiliser la technologie d’OpenAI pour la surveillance de masse ou le développement d’armes autonomes létales avec un contrôle humain minimal.
Malgré les appels à la transparence et à l’accès à l’intégralité du contrat, ni le DoD ni OpenAI n’ont souhaité le rendre public. Ce manque de transparence alimente encore davantage les inquiétudes quant à une éventuelle utilisation abusive et souligne la nécessité d’une plus grande responsabilité dans le déploiement des technologies d’IA par les agences gouvernementales. Le paysage politique pose des défis aux démocrates du Sénat qui cherchent à obtenir des mesures concrètes, les républicains détenant actuellement le contrôle de la Maison-Blanche et des deux chambres du Congrès.
(jw)(fc)
Suivez également Business AM sur Google Actualités
Si vous souhaitez accéder à tous les articles, abonnez-vous ici !

