OpenAI et Anthropic recherchent des experts en armement pour prévenir les abus liés à l’IA


Principaux renseignements

  • Les principales entreprises spécialisées dans l’IA recrutent des experts en armement et en explosifs afin de limiter les risques d’utilisation abusive de leurs technologies.
  • Ces initiatives visent à concevoir des protocoles de sécurité (« garde-fous ») et à identifier les menaces émergentes posées par l’IA avancée.

Les entreprises spécialisées dans l’IA, Anthropic et OpenAI, prennent des mesures proactives pour limiter les éventuels abus de leurs technologies. Ces deux entreprises ont publié des offres d’emploi dans lesquelles elles recherchent des experts dans le domaine des armes et des explosifs.

Informations sensibles

Anthropic a annoncé dans une publication sur LinkedIn qu’elle recherchait spécifiquement un expert en politiques publiques possédant une vaste expérience dans le domaine des armes chimiques et de la lutte contre les explosifs. Cette personne sera chargée de concevoir et de mettre en œuvre des protocoles de sécurité, également appelés « garde-fous ». L’entreprise souhaite ainsi s’assurer que les systèmes d’IA d’Anthropic traitent de manière responsable les informations sensibles relatives aux armes et aux explosifs. De plus, elle devra réagir rapidement à d’éventuelles escalades ou à des requêtes préoccupantes dans ce domaine.

OpenAI a lancé une initiative similaire. L’entreprise a publié plus tôt ce mois-ci une offre d’emploi indiquant qu’elle recherchait des chercheurs pour son équipe « Preparedness ». Ceux-ci ont pour mission d’identifier et de limiter les risques catastrophiques liés aux modèles d’IA avancés. L’entreprise recherche également un modélisateur de menaces. Cette personne sera chargée d’analyser et de prévoir les menaces potentielles posées par les technologies d’IA. Elle servira de point de contact central et fera le lien entre les perspectives techniques, administratives et politiques afin d’établir des priorités et de concentrer les efforts sur la gestion de ces risques émergents.

Surveillance gouvernementale

Ces décisions en matière de recrutement font suite à la récente action en justice intentée par Anthropic contre le gouvernement américain. On avait qualifié l’entreprise de « risque pour la chaîne d’approvisionnement ». Ce qui aurait pu entraîner des restrictions sur ses contrats et ses collaborations avec les organismes publics. Le PDG d’Anthropic, Dario Amodei, a contesté cette désignation, arguant que cela ne devrait pas les empêcher d’exercer un contrôle sur l’utilisation de leur chatbot IA, Claude. Il a notamment insisté sur les inquiétudes concernant d’éventuels abus à des fins de surveillance de masse ou d’armes autonomes. (ev)

Suivez également Business AM sur Google Actualités

Si vous souhaitez accéder à tous les articles, abonnez-vous ici !

Plus