IBM renonce à la reconnaissance faciale à cause des biais racistes

L’un des leaders du marché des intelligences artificielles abandonnent tous ses projets sur la reconnaissance faciale. IBM demande également que l’utilisation d’une telle technologie soit revue par les autorités législatives.

‘IBM s’oppose fermement et ne tolérera pas l’utilisation de toute technologie, y compris la technologie de reconnaissance faciale offerte par d’autres fournisseurs, pour la surveillance de masse, le profilage racial, les violations des droits et des libertés fondamentales de la personne’ a déclaré Arvind Krishna, le premier CEO indien d’IBM, dans une lettre directement adressée au Congrès américain.

En plus de mettre fin à ses programmes de reconnaissance faciale, la multinationale use de son influence pour soutenir le combat contre le racisme. Dans sa lettre, IBM propose son aide aux législateurs pour faire progresser la justice et l’équité raciale en passant par une réforme de la police. Et va même un pas plus loin en proposant de travailler sur l’utilisation responsable de la technologie.

‘Nous pensons que le moment est venu d’entamer un dialogue national sur l’opportunité et sur la manière dont la technologie de reconnaissance faciale devrait être utilisée par les agences d’application de la loi.’

Biais raciaux

Le problème des programmes de reconnaissance faciale est qu’ils sont utilisés par des personnes qui ont des biais raciaux. Les IA ont besoin d’une base de donnée pour pouvoir fonctionner. Et comme ces bases sont faites par des humains, il arrive que, parfois sans le vouloir, ces personnes laissent transparaître leurs préjugés sur les personnes racisées ou sur les femmes.

Aux Etats-Unis, des chercheurs fédéraux ont repéré des preuves de biais racistes dans près de 200 programmes de reconnaissance faciale. L’erreur la plus commune est que le programme va plus facilement confondre deux personnes non-blanches – qu’elles soient africaines, asiatiques ou sud-américaine – que deux individus de type caucasien. Les confusions augmentent encore plus quand il s’agit de femmes racisées.

‘L’intelligence artificielle est un outil puissant qui peut aider les forces de l’ordre à assurer la sécurité des citoyens. Mais les fournisseurs et les utilisateurs des systèmes IA ont la responsabilité partagée de veiller à ce que cette IA soit testée pour les biais, en particulier lorsqu’elle est utilisée dans l’application des lois’, affirme Arvind Krishna. Et c’est pour cette raison qu’IBM ne veut plus, pour l’instant, participer à de tels programmes.

Plus