Principaux renseignements
- Plus de 600 employés de Google ont adressé une pétition au PDG Sundar Pichai pour lui demander d’interdire l’utilisation de la technologie d’IA de Google dans le cadre d’opérations militaires classifiées des États-Unis.
- Ces employés craignent que la puissante IA de Google ne soit détournée à des fins contraires à l’éthique, telles que la militarisation et la surveillance de masse.
- Cette opposition menée par les employés reflète une tension récurrente entre les principes éthiques affichés par Google en matière d’IA et ses collaborations en cours avec le Pentagone.
Les employés de Google expriment leurs inquiétudes quant à l’utilisation abusive potentielle de la technologie d’intelligence artificielle (IA) de leur entreprise. Plus de 600 employés, principalement issus des divisions Google DeepMind et Cloud, ont écrit au PDG Sundar Pichai pour l’exhorter à empêcher l’utilisation de l’IA de Google dans le cadre d’opérations militaires américaines classifiées. C’est ce qui ressort d’une lettre à laquelle le site web The Information a pu avoir accès.
Préoccupations éthiques
La lettre cite un rapport récent suggérant que Google et le Pentagone discutent de l’utilisation de l’IA Gemini de Google dans des contextes secrets. Les employés font valoir que, bien que l’IA puisse être puissante, elle est sujette à des erreurs et à une utilisation abusive potentielle à des fins contraires à l’éthique, telles que la militarisation et la surveillance de masse. Ils estiment que le refus de tous les projets classifiés est le seul moyen de garantir que la technologie de Google ne soit pas impliquée dans des applications nuisibles.
Ce n’est pas la première fois que Google fait face à une opposition interne concernant des collaborations militaires. En 2018, la pression des employés a conduit l’entreprise à abandonner le projet Maven, un contrat avec le Pentagone visant à intégrer l’IA dans les opérations militaires. Palantir a ensuite repris le projet.
Évolution des principes
La même année, Google a établi des principes en matière d’IA mettant l’accent sur une utilisation éthique, notamment en s’abstenant d’utiliser l’IA à des fins d’armement ou de surveillance. Cependant, ces principes ont été révisés en 2022 afin de supprimer les mentions spécifiques aux armes et à la surveillance. Malgré cela, Google a décroché l’année dernière de nouveaux contrats avec le Pentagone portant sur ses produits d’IA et de cloud. En mars, l’entreprise a annoncé son intention de fournir des agents IA non classifiés au Pentagone.
Les employés de DeepMind ont été informés lors d’une réunion en janvier qu’il fallait s’attendre à d’autres accords de ce type. La lettre souligne le manque de contrôle inhérent aux travaux classifiés, soulevant des inquiétudes quant à la manière dont la technologie de Google pourrait être utilisée sans transparence ni obligation de rendre des comptes. En fin de compte, les employés expriment leur souhait que l’IA profite à l’humanité et que son utilisation à des fins néfastes soit évitée.
Suivez également Business AM sur Google Actualités
Si vous souhaitez accéder à tous les articles, abonnez-vous ici !

