Principaux renseignements
- Faculty AI, une société basée au Royaume-Uni, développe une technologie d’intelligence artificielle pour les drones militaires.
- L’entreprise a des liens étroits avec les agences gouvernementales et se concentre sur la revente de modèles existants d’OpenAI, en fournissant des services de conseil sur leur mise en œuvre au sein des secteurs gouvernementaux et industriels.
- Malgré les préoccupations concernant les implications éthiques des systèmes d’armes autonomes, Faculty AI souligne son engagement en faveur d’un développement et d’une application responsables de l’IA dans le secteur de la défense.
Contexte et partenariat
Une entreprise d’IA basée au Royaume-Uni et entretenant des liens étroits avec des agences gouvernementales développe une technologie d’intelligence artificielle pour les drones militaires. Cette entreprise, Faculty AI, a l’habitude de travailler avec le NHS, les organismes gouvernementaux de sécurité, et a même participé à l’analyse de données pour la campagne Vote Leave lors du référendum sur le Brexit.
Faculty AI se distingue d’autres grandes entreprises d’IA comme OpenAI ou Deepmind en ne créant pas ses propres modèles. Elle se concentre plutôt sur la revente de modèles existants, en particulier ceux d’OpenAI, et fournit des services de conseil sur leur mise en œuvre au sein des gouvernements et des secteurs industriels. Après avoir attiré l’attention sur son travail dans le cadre de la campagne « Vote Leave », Faculty AI a obtenu d’autres contrats gouvernementaux pendant la pandémie grâce à ses relations avec l’ancien conseiller de Boris Johnson, Dominic Cummings.
Collaboration et controverse
L’entreprise, officiellement connue sous le nom de Faculty Science, a participé à des tests de modèles d’IA pour l’Institut de sécurité de l’IA (AISI) récemment créé par le gouvernement britannique. Cet institut a été créé sous l’égide de l’ancien Premier ministre Rishi Sunak pour traiter des implications en matière de sécurité des progrès rapides de l’intelligence artificielle.
Le partenariat de Faculty AI avec Hadean, une startup britannique spécialisée dans les simulations alimentées par l’IA, souligne son implication dans le développement d’applications pour les drones militaires. Leur collaboration se concentre sur des domaines tels que l’identification d’objets, le suivi des mouvements et l’exploration des capacités d’essaimage autonome. Bien que Faculty AI affirme que son travail avec Hadean n’impliquait pas le ciblage d’armes, elle reste secrète sur d’autres projets de défense potentiels impliquant une force létale ou des systèmes de drones autonomes.
Engagement en matière d’éthique et de réglementation
Malgré le secret qui entoure certains aspects de son travail, Faculty AI met en avant son engagement en faveur d’un développement éthique de l’IA et son expérience de dix ans en matière d’initiatives de sécurité de l’IA, y compris celles visant à lutter contre les abus sexuels sur les enfants et le terrorisme. L’entreprise affirme que son expertise lui a valu la confiance des gouvernements et des développeurs de modèles pour garantir un développement et une application responsables de l’IA dans le secteur de la défense.
Toutefois, les préoccupations croissantes concernant les implications éthiques des systèmes d’armes autonomes ont conduit à des appels à la prudence de la part d’experts et d’hommes politiques. Certains préconisent des traités ou des accords internationaux pour réglementer l’utilisation de drones meurtriers, tandis que d’autres proposent d’interdire complètement les systèmes d’armes autonomes. La collaboration continue de Faculty AI avec l’AISI la place dans une position centrale pour influencer la politique du gouvernement britannique concernant le développement et le déploiement de l’IA au sein de l’armée.
Si vous souhaitez accéder à tous les articles, abonnez-vous ici!