L’Intelligence artificielle (AI) renforce nos préjugés concernant le sexe, l’âge et la race, car une fois que ces préjugés sont programmés dans les algorithmes, ils ne font plus que s’amplifier au fil du temps. C’est ce qu’affirme l’American Civil Liberties Union (ACLU), l’ONG qui défend les droits et libertés des citoyens américains, sur base d’un ensemble d’études.
L’Intelligence artificielle (AI) renforce nos préjugés concernant le sexe, l’âge et la race, car une fois que ces préjugés sont programmés dans les algorithmes, ils ne font plus que s’amplifier au fil du temps. C’est ce qu’affirme l’American Civil Liberties Union (ACLU), l’ONG qui défend les droits et libertés des citoyens américains, sur base d’un ensemble d’études.
Les algorithmes sont marqués par les opinions des personnes et les préjugés qui existent consciemment ou inconsciemment dans la société humaine. Ce phénomène pourrait avoir des conséquences graves. « Mais personne ne s’inquiète à leur sujet », déplore l’ACLU. Une conclusion qui donne à réfléchir.
Les ordinateurs ne peuvent pas reconnaître les préjugés
Lors de la conférence MobileBeat organisée la semaine dernière à San Francisco, Mike Curtis, le vice-président de l’ingénierie chez Airbnb, a bien posé ce problème :
« L’une des meilleures façons de lutter contre les préjugés est d’être conscient qu’ils existent. Si vous savez qu’il peut y avoir des préjugés, vous pouvez agir de manière proactive pour les devancer. Mais les ordinateurs n’ont pas cette compétence. Ils ne peuvent pas reconnaître les préjugés qui peuvent leur avoir été soumis dans les modèles de données qu’ils ont eu à traiter ».
Par exemple, Airbnb cherche à optimiser ses algorithmes dans la mesure où ils améliorent l’expérience utilisateur lorsque ce dernier réserve un séjour. Mais un client blanc qui a des préjugés racistes pourra rapporter une meilleure expérience utilisateur quand il est reçu par des hôtes ou hôtesses blanches. Pour atteindre l’objectif d’une plateforme ouverte non discriminatoire, les programmeurs d’Airbnb doivent d’abord identifier ce problème lorsqu’il apparait, choisir de donner la priorité à des données non discriminatoires, et programmer les algorithmes en conséquence.
Les algorithmes se montrent plus cléments à l’égard des prisonniers blancs qu’à l’égard des prisonniers noirs
ProPublica, un organisme américain sans but lucratif qui fait la promotion du journalisme d’investigation, a enquêté sur un programme informatique qui indique un score pour prédire la probabilité qu’un prisonnier libéré commette un nouveau délit à sa sortie de prison. Ses conclusions sont éventuellement consultées dans le cadre d’une prise de décision de mise en liberté conditionnelle.
Il conclut que le programme était beaucoup plus sévère sur la notation des prisonniers noirs que sur celle des prisonniers blancs.
Entre autres données, l’algorithme se basait sur l’existence d’une condamnation du père du prisonnier à une peine de prison pour calculer la probabilité d’une récidive. Si un avocat avait fait appel à ce type d’informations au cours d’un procès, le juge lui aurait dit qu’un tel argument était contraire à la Constitution…
Pourquoi est-ce important ?
Il n’y a guère que les firmes de la Silicon Valley qui aient le pouvoir de prendre des décisions et d’agir contre ces préjugés, mais les scandales impliquant des discriminations dans lesquels certaines des plus illustres d’entre elles sont engluées (Google, Uber, Tesla …) suggèrent qu’il ne faut pas trop en attendre de leur côté.
Cette problématique est au cœur de l’ouvrage « Weapons of Math Destruction » de Cathy O’Neil, qui l’a expliquée lors d’une récente conférence TED. Elle voulait savoir sur quels critères les algorithmes évaluaient les enseignants à New York. Elle a trouvé qu’ils étaient secrets…(vidéo en anglais)