Principaux renseignements
- Anthropic donne la priorité aux considérations éthiques en refusant les contrats militaires, ce qui lui vaut des sanctions gouvernementales.
- Les experts soulignent la nécessité d’une supervision humaine dans les applications militaires de l’IA en raison des limites de cette technologie.
- La position éthique d’Anthropic trouve un écho auprès des consommateurs, ce qui stimule les téléchargements de Claude, tandis qu’OpenAI fait l’objet de critiques pour son accord avec le Pentagone.
La décision d’Anthropic de privilégier les considérations éthiques plutôt que les contrats militaires potentiels a suscité un débat sur l’aptitude de l’intelligence artificielle à être utilisée à des fins militaires.
Alors que le chatbot d’Anthropic, Claude, a connu un regain de popularité auprès des consommateurs, son refus d’autoriser le Pentagone à utiliser sa technologie pour des armes autonomes et la surveillance intérieure a entraîné des sanctions gouvernementales. La société prévoit de contester ces sanctions devant les tribunaux.
Surveillance humaine
Certains experts, comme Missy Cummings, ancienne pilote de chasse de la marine, saluent la position éthique d’Anthropic, mais critiquent l’industrie de l’IA pour avoir exagéré les capacités de ces technologies. Ils affirment que les grands modèles linguistiques sont sujets à des erreurs et ne sont pas suffisamment fiables pour des situations à haut risque comme la guerre.
Cummings insiste sur la nécessité d’un contrôle humain dans toute application de l’IA à des fins militaires, soulignant l’importance de la vérification et d’une réflexion approfondie.
Messages contrastés
Elle oppose la position d’Anthropic aux messages d’autres entreprises d’IA qui suggèrent que leur technologie est proche de la conscience. Cette situation a mis en évidence les inconvénients potentiels d’une adoption précipitée de l’IA à des fins militaires sans en comprendre pleinement les risques.
La position d’Anthropic a également trouvé un écho auprès des consommateurs, ce qui a entraîné une forte augmentation des téléchargements de Claude. Cela se fait au détriment de ChatGPT d’OpenAI, qui a récemment annoncé un accord avec le Pentagone pour remplacer Anthropic dans les environnements classifiés.
Réaction d’OpenAI
Le PDG d’OpenAI, Sam Altman, a reconnu que la décision de l’entreprise avait été prise à la hâte et que la communication aurait pu être meilleure.
Il affirme qu’il faut réfléchir attentivement aux implications éthiques de l’IA. Il ajoute qu’il est important de collaborer avec les parties prenantes telles que le Pentagone afin de mettre en place des garanties appropriées.
(jw)(fc)
Suivez également Business AM sur Google Actualités
Si vous souhaitez accéder à tous les articles, abonnez-vous ici!

