Les préjugés sexistes d’un autre temps touchent jusqu’aux technologies les plus modernes

Un coup d’œil au monde des affaires suffit pour le constater : en 2024, la Journée internationale de lutte pour les droits des femmes est toujours aussi nécessaire. Et un tout nouveau défi mérite notre attention : l’intelligence artificielle (IA). Si cette technologie présente un potentiel extraordinaire, gardons à l’esprit que les modèles d’IA peuvent renforcer les stéréotypes sexistes.

En tant que data scientist, je ne peux qu’applaudir le fait que l’IA soit plus que jamais sous les feux de la rampe. Toutefois, ce secteur a évolué à la vitesse de l’éclair en un an à peine. Avec l’essor de l’IA générative et d’outils comme ChatGPT, la technologie de l’IA fait désormais partie intégrante de notre société. Pour la première fois, il est même possible de communiquer avec un système d’IA en langage naturel.

Pourtant, ChatGPT est loin d’être le premier outil à imiter les interactions humaines. Nous sommes déjà habitués à des chat bots comme Alexa, Siri et Cortana, par exemple. Malheureusement, ces derniers perpétuent eux aussi les stéréotypes sexistes. Avez-vous déjà remarqué que de nombreux chat bots portent des noms féminins ? Les recherches en la matière montrent que les noms féminins dominent lorsqu’un outil doit sembler chaleureux et attentif. En revanche, les noms masculins sont privilégiés lorsque la confiance et la compétence sont prioritaires.

Et on constate le même mécanisme avec l’IA générative. Si nous laissons la forme actuelle de l’IA décider de notre avenir, il ne fera que refléter notre passé.

ChatGPT est-il grevé de stéréotypes sexistes ?

Même si ChatGPT est en principe programmé pour éviter les préjugés ou les biais, ceux-ci continuer de s’immiscer parfois. À titre expérimental, nous avons demandé à ChatGPT une liste de « métiers pour garçons ». L’outil a classé ces professions dans le top 5 : développeur de logiciels, technicien en construction ou en ingénierie, coach sportif, pompier et dessinateur technique. Pour les filles, ChatGPT a répondu : psychologue, infirmière, enseignante, graphiste et écologiste.

En bref, trois emplois liés à la technologie pour les garçons, contre zéro pour les filles. Et ce, à une époque où l’on souhaite plus que jamais que les femmes prennent leur place dans le monde des technologies. Ne serait-ce que, précisément, pour contrer ce biais dans les futurs modèles d’IA. Nous ne pouvons pas pointer du doigt les technologies. En fin de compte, ChatGPT s’appuie sur les informations à sa disposition. Et historiquement, il est vrai que les garçons sont plus susceptibles que les filles de devenir développeurs de logiciels.

Je suis moi-même entrée dans le monde de la science des données par hasard. Comme le recommande ChatGPT, je rêvais de devenir enseignante, jusqu’à ce que quelqu’un me convainque d’étudier le commerce et l’économie et me fasse entrevoir le potentiel des données et de l’IA. Cette découverte a changé ma vie. Aujourd’hui, je donne régulièrement des conférences dans des écoles et des universités pour encourager les jeunes filles à faire carrière dans ce secteur passionnant.

Les angles morts des modèles d’IA

Les données et l’IA vont améliorer notre société à bien des égards, j’en suis convaincue. Mais nous ne devons pas oublier que la technologie a aussi ses zones d’ombre et ses biais. Les systèmes d’IA s’alimentent de données produites par des humains. Et comme les biais sont inévitables chez les humains, les systèmes d’IA sont a priori condamnés à en contenir. Pire encore, à les accentuer. Une base de données internationale recueille les incidents de ce type causés par l’IA. L’exemple le plus célèbre est celui de l’outil d’Amazon qui a favorisé les candidats masculins à l’embauche en s’appuyant sur des données historiques.

Les biais apparaissent souvent là où l’on s’y attend le moins. Nous appelons cela des « angles morts » qui sont très difficiles à détecter, surtout quand vous ne faites pas partie du public désavantagé par l’algorithme. Ce n’est que si vous êtes membre d’un groupe minoritaire et que vous faites vous-même l’expérience de cet a priori que vous pouvez identifier le problème. Il y a quelques années, les développeurs d’IA ont réalisé qu’ils ne pouvaient pas résoudre ce type de biais seuls. Ils ont donc lancé un appel à l’aide pour identifier les préjugés et démontrer pourquoi les systèmes sont injustes afin de pouvoir y remédier.

Pas d’IA non biaisée sans diversité dans le personnel

Cela montre également l’importance de la diversité des profils dans notre secteur. Pour une équipe composée uniquement de développeurs masculins, les préjugés sexistes d’un modèle d’IA seront cachés dans un angle mort. Nous avons besoin de plus de diversité pour aider à former les modèles et les rendre neutres en matière de genre. La diversité figure d’ailleurs sur la liste d’évaluation pour l’IA digne de confiance (ALTAI, ou EU Assessment List on Trustworthy AI). Pour sensibiliser à cette problématique et susciter l’adhésion, nous devons donner une voix aux groupes minoritaires. Ce même la seule stratégie viable pour nous attaquer à la racine des préjugés et rendre les systèmes d’IA plus fiables.

En 2024, les hommes dominent malheureusement toujours le secteur des technologies. Un déséquilibre à exposer à l’occasion de la Journée de lutte pour les droits des femmes (et le reste de l’année), dans l’espoir que ChatGPT recommande bientôt des professions merveilleuses telles que celles de scientifique ou d’ingénieure en données aux petites filles. Cette journée mondiale sera alors peut-être un peu moins nécessaire.


Véronique Van Vlasselar est Data & Decision Scientist; Analytics & AI Lead South West & East Europe chez SAS

Plus