Selon une nouvelle étude, les voitures autonomes comportent un nouveau risque potentiel. Ces dernières échouent lors de la détection des piétons à la peau sombre. Les véhicules autonomes peuvent être à l’origine d’une inégalité raciale sur les autoroutes si nous n’y faisons pas attention, expliquent les chercheurs du Georgia Institute of Technology. Cette étude est basée sur l’analyse de divers algorithmes pour la détection de personnes.
Selon ce rapport, si vous êtes une personne à la peau sombre, vous serez probablement confronté davantage au risque de vous faire renverser par une voiture autonome qu’une personne blanche . En effet, les véhicules autonomes semblent plus efficaces pour détecter les piétons aux peaux plus clairs.
Lors de leur expérience, les scientifiques ont constaté que pour les personnes à la peau sombre, la précision de la détection était inférieure de cinq points de pourcentage. Cette disparité persistait même lorsque l’on modifiait les paramètres tels que le moment de la journée, ou la quantité de piétons en présence.
Préjugé
Les algorithmes peuvent refléter les préjugés de leurs créateurs. L’étude apporte de nouvelles preuves sur la façon dont les préjugés humains s’infiltrent dans nos systèmes de prise de décision automatisés. C’est ce qu’on appelle le biais algorithmique.
La liste des problèmes concernant les voitures autonomes continue de s’allonger. « Il n’y a pas que des questions sur la sécurité de la technologie », explique Sigal Samuel sur Vox. “En plus de nous inquiéter sur leur sécurité, sur la manière dont elles gèrent des compromis délicats sur la route et dont elles pourraient aggraver la circulation, nous devons également nous demander comment les voitures autonomes pourraient nuire aux personnes de couleur. »
Les systèmes algorithmiques tirent les leçons des exemples qu’ils reçoivent. Si une diversité suffisante n’est pas garantie à ce stade de l’apprentissage, ils rencontreront également de plus grandes difficultés lors de la reconnaissance des personnes avec certaines couleurs de peau.
Gorilles
L’exemple le plus célèbre de biais algorithmique a été dévoilé en 2015, lorsque le système de reconnaissance d’image de Google a qualifié les Afro-Américains de « gorilles ». Une étude a révélé que trois systèmes de reconnaissance faciale – IBM, Microsoft et Megvii en Chine – étaient plus susceptibles d’identifier de manière erronée le sexe des personnes à la peau sombre (en particulier les femmes) que celui des personnes à la peau claire.
Selon les chercheurs, l’algorithme de reconnaissance des piétons des voitures autonomes peut être confronté à un problème similaire. La technologie a peut-être été testée principalement avec des sujets blancs. De plus, une pondération insuffisante a pu être attribuée au groupe plus restreint de sujets à la peau sombre, explique le journaliste.
« Attribuer une pondération plus importante à cet échantillon de sujets pourrait aider à corriger le biais », soulignent les chercheurs. En outre, on pourrait s’assurer que les équipes de développeurs présentent elles-mêmes une plus grande diversité raciale. Si tous les membres de l’équipe sont blancs, il ne leur sera peut-être pas utile de vérifier comment leur algorithme traite l’image d’une femme noire.
Une autre solution consisterait à obliger les entreprises à tester leurs algorithmes pour vérifier leur partialité et à démontrer qu’ils respectent certaines normes d’équité.