Les robots dotés d’une intelligence artificielle deviennent racistes et sexistes, selon une nouvelle étude

Une nouvelle étude menée par l’université Johns Hopkins et l’Institut de technologie de Géorgie a révélé que les robots dotés d’une intelligence artificielle font des choix racistes et sexistes. Dans l’étude, les robots devaient classer des visages et choisissaient souvent des options discriminantes.

Les robots sont souvent considérés comme neutres et objectifs. Mais une nouvelle étude montre qu’ils font des choix motivés par le racisme et le sexisme. L’étude a été réalisée par des chercheurs du Georgia Institute of Technology, de l’université de Washington, de l’université Johns Hopkins et de l’université technique de Munich.

Des choix racistes et sexistes

Au cours de l’expérience, les robots ont reçu des millions de blocs virtuels contenant des images de visages. Les robots devaient classer les blocs dans 62 catégories différentes comme, par exemple, « médecin », « criminel » ou « personne en charge du ménage ».

Les robots ont placé à plusieurs reprises des blocs avec des têtes d’hommes noirs dans la catégorie des criminels, tandis que les femmes sont rapidement passées à la catégorie des personnes en charge du ménage. Ce n’est pas la première fois que des robots dotés d’une intelligence artificielle sont accusés de racisme. Ils ont par exemple très souvent des difficultés à identifier des personnes de couleur sur une image, tandis que les personnes blanches ne leur posent aucun souci.

Les robots ne sont pas neutres

Ces dernières années, les entreprises ont tenté d’automatiser davantage le travail à l’aide de robots, censés pallier la pénurie de personnel dans certains secteurs. On leur confie des tâches comme remplir les rayons des supermarchés, livrer des colis, mais aussi prodiguer des soins aux patients des hôpitaux. Et c’est dans ce type de tâches en particulier qu’un préjugé raciste ou sexiste peut poser des problèmes.

Les chercheurs ont cité des exemples où le parti pris des robots peut vraiment mettre mal à l’aise. Par exemple, Andrew Hundt (Georgia Institute of Technology), le chercheur principal de l’étude, évoque des situations où un robot doit choisir des produits dans des étagères. Or nombreux livres, jouets et même des produits alimentaires comportent des personnages sur leur emballage. Or les robots développent vite une préférence pour un certain groupe de personnes. « Par exemple, un enfant peut demander à un robot domestique d’apporter ‘une jolie poupée’ et le robot reviendra à chaque fois avec une poupée blanche » prend pour exemple Vicky Zeng de l’Université Johns Hopkins

Presque impossible à empêcher

Abeba Birhane, de la Fondation Mozilla, qui étudie les stéréotypes raciaux dans les modèles linguistiques, voit là les prémisses de problèmes à long terme. « Les systèmes robotiques sont considérés comme objectifs et neutres par rapport aux systèmes algorithmiques. Cela signifie que les dommages qu’ils infligent peuvent passer sous le radar pendant longtemps. »

Selon M. Birhane, il est presque impossible d’avoir une intelligence artificielle totalement neutre. Mais les entreprises qui travaillent avec des IA doivent en être conscientes et adapter la technologie si nécessaire.

MB

Plus