Le recrutement est connu pour être souvent truffé de préjugés, sur les étrangers, sur les femmes, sur les handicapés, etc. Les logiciels de recrutement offraient l’espoir de faire disparaitre ces biais. Il n’en est rien… Une étude australienne montre que les choix d’une intelligence artificielle sont même encore plus biaisés que ceux d’un humain.
L’étude de l’université de Melbourne était divisée en deux grandes étapes. Tout d’abord, les chercheurs se sont concentrés sur des recruteurs humains pour vérifier l’existence de préjugés. Les 40 responsables des ressources humaines (hommes et femmes) étaient divisés en deux groupes. D’un côté, les CV n’avaient pas été modifiés. Ils s’agissaient de curriculum vitae de postulants réels pour UniBank. De l’autre côté, les prénoms masculins étaient modifiés en prénoms féminins et inversement.
Les recruteurs devaient classer les CV par ordre de préférence, et ce pour trois jobs: analyste de données, directeur du recrutement, et directeur des finances. Ces emplois sont considérés respectivement à dominance masculine, à dominance féminine et avec un bon équilibre des genres selon le Bureau australien des statistiques.
Les résultats sont clairs: les recruteurs ont dans les deux groupes préférés les candidats indiqués comme masculin, même s’ils avaient les mêmes qualifications et expériences que les femmes. Ils étaient également plus susceptibles d’offrir un poste plus élevé dans la hiérarchie à des hommes.
Les biais de l’IA
Les chercheurs ont ensuite repris ces données pour les encoder dans un logiciel de recrutement afin de le former à faire des choix. En effet, pour qu’une IA prenne des décisions seule, elle a besoin qu’on lui donne des exemples. Pour une IA de recrutement, des humains doivent donc montrer les préférences afin que le logiciel comprenne comment faire des choix.
Lorsque l’IA était prête, les chercheurs ont alors proposé des CV auxquels les noms et autres indications de genre étaient masqués. L’ordinateur ne pouvait pas savoir quel candidat était une femme. Et pourtant, les choix se sont révélés sexistes.
‘Même lorsque les noms des candidats ont été supprimés, l’IA a évalué les curriculum vitae en se basant sur des schémas d’embauche historiques où les préférences penchaient vers les candidats masculins’, explique Dr Marc Cheong, co-auteur de l’étude.
‘Par exemple, donner un avantage aux candidats ayant des années de service continu désavantagerait automatiquement les femmes qui ont pris un congé pour des responsabilités familiales.’
Même si elle est basée sur une petite quantité de données, l’étude montre qu’une IA peut amplifier les biais des humaines. Dans ce cas, on parle de sexisme, mais cela pourrait également fonctionner avec le racisme. Pour les chercheurs, en rendant les algorithmes de sélection plus transparents, il est possible d’éviter les biais. Mais le mieux reste encore de s’attaquer à la base du problème: les préjugés humains.