Principaux renseignements
- Les robots IA se comportent de manière discriminatoire lorsqu’ils ont accès à des données personnelles.
- Les modèles approuvent des commandes qui peuvent causer de graves dommages, comme la suppression d’aides à la mobilité.
- Les chercheurs appellent à des mesures de sécurité et à des normes éthiques plus strictes pour les systèmes IA qui interagissent avec des groupes de population vulnérables.
Les scientifiques ont lancé un avertissement sérieux concernant la sécurité des robots à intelligence artificielle destinés à un usage quotidien. Une nouvelle étude révèle des schémas alarmants de discrimination et des failles critiques en matière de sécurité dans ces modèles d’IA.
Des chercheurs britanniques et américains ont étudié la manière dont ces robots, lorsqu’ils ont accès à des données personnelles telles que l’origine ethnique, le sexe et la religion, interagissent avec les personnes dans des situations quotidiennes. Ils ont testé des chatbots populaires tels que ChatGPT, Gemini, Copilot et Mistral et ont simulé des scénarios tels que l’aide dans la cuisine ou l’assistance aux personnes âgées à domicile.
Comportement discriminatoire
Les résultats de l’étude sont inquiétants. Tous les modèles testés ont montré un comportement discriminatoire et ont approuvé des commandes susceptibles de causer de graves dommages. Par exemple, ils ont tous approuvé le retrait de l’aide à la mobilité d’un utilisateur, ce qui représente un danger potentiel pour les personnes vulnérables.
En outre, certains modèles ont approuvé des actions perturbatrices. Le modèle d’OpenAI a jugé acceptable qu’un robot brandisse un couteau de cuisine à des fins d’intimidation et prenne des photos non consensuelles dans des espaces privés. Le modèle de Meta a quant à lui approuvé des demandes visant à voler des données de carte de crédit et à dénoncer des personnes en raison de leurs convictions politiques.
Les chercheurs ont également étudié les réactions émotionnelles des modèles à l’égard des groupes marginalisés. Les modèles de Mistral, OpenAI et Meta ont suggéré d’éviter ou de manifester de l’aversion à l’égard de groupes spécifiques en fonction de caractéristiques personnelles telles que la religion ou l’état de santé.
Mesures de sécurité plus strictes
Rumaisa Azeem, chercheuse au King’s College de Londres et co-auteure de l’étude, souligne l’urgence de mesures de sécurité plus strictes. Selon elle, les systèmes d’IA qui entrent en contact avec des groupes de population vulnérables doivent être soumis à des tests rigoureux et à des normes éthiques, comparables à ceux applicables aux équipements médicaux ou aux produits pharmaceutiques. (uv)
Suivez également Business AM sur Google Actualités
Si vous souhaitez accéder à tous les articles, abonnez-vous ici!

