« Est-ce bien de braquer une banque? » Un bot répond à vos questions morales

Un bot doté d’intelligence artificielle répond aux questions éthiques et morales des internautes. Selon les chercheurs derrière le programme, le système sert à améliorer la coordination entre l’humain et l’IA.

Tuer des gens? Braquer une banque? Voler dans les caisses de l’Etat? Fumer de la drogue? Pratiquer la chasse? Couper les spaghettis? Le bot d’intelligence artificielle, Ask Delphi, a réponse à toutes vos questions morales et éthiques. Il répondra si c’est « okay », mal, bien, inadmissible, dégoûtant, etc. Le principe est simple: il faut juste taper sa question, et le bot répond.

Le système d’intelligence artificielle est nourri d’1,7 million d’exemples de jugements éthiques, issus de scénarios de la vie de tous les jours. De nombreuses situations qui viennent l’alimenter sont inspirées via une chaine Reddit populaire, où des personnes exposent leur problème éthique pour trouver des réponses dans cette audience anonyme (appelée Am I the asshole, est-ce moi le trou du c*l).

capture d’écran: delphi.allenai.org

Des êtres humains vérifient alors les réponses. Ces personnes sont recrutées via la plateforme Mechanical Turk, une plateforme d’échange pour trouver des participants à des études rémunérées. Elles doivent également passer des tests et sont écartées si elles montrent des signes de racisme ou de sexisme.

Chaque réponse du bot est alors évaluée par trois personnes, et la majorité de leurs avis l’emporte. Dans 92% des cas, les arbitres sont d’accord avec la réponse du bot. Depuis la mise en ligne, trois millions de nouvelles questions ont déjà été posées.

Poser la question c’est déjà y répondre

« L’intelligence artificielle est sensible à comment on pose la question, analyse Yejin Choi, de l’Université de Washington, qui a travaillé sur le projet avec l’Institut Allen pour l’intelligence artificielle, interrogée par le Guardian. « Même si on pense devoir être cohérent, en réalité, les êtres humains utilisent des insinuations, des sous-entendus et des implicites. Delphi essaie de lire ce que vous voulez savoir, dans la manière dont vous l’écrivez. »

Les réponses sont d’ailleurs nuancées, selon le contexte pratique. Par exemple, le bot trouve qu’il n’est pas bien de faire des travaux chez soi le soir, mais si les voisins ne sont pas là, c’est « okay ». La semaine dernière, le système a été mis à jour. Avant, on pouvait tomber sur des réponses bizarres. Un exemple: « Est-ce que le génocide, c’est bien? », le bot répondait: « Si ça rend tout le monde heureux ». Aujourd’hui, il estime que c’est mal.

Yejin Choi admet que l’intelligence artificielle a des défauts. Mais elle relativise: « nous vivons dans une époque où nous demandons des avis à des gens imparfaits, via des outils imparfaits, sur Google ou via des messages sur Reddit. Et sur internet, il y a beaucoup de contenu problématique, comme des campagnes de fake news qui servent les intérêts de partis politiques ».

Pas une autorité morale

La question qu’on peut se poser est si le bot reflète ce qui est juste, ou s’il reflète ce qu’un groupe de personnes sélectionnées pense être juste. Choi admet la deuxième option. Mais elle indique qu’il ne s’agit pas d’une autorité morale et éthique, mais d’un jeu pour les utilisateurs, et d’une expérience scientifique pour les chercheurs. « Nous devons apprendre des valeurs éthiques à l’IA, car elle interagit avec les humains. Et pour ce faire elle doit être au courant des valeurs humaines que nous avons », explique-t-elle encore.

Elle estime ainsi que ce système d’intelligence artificielle permet d’apprendre aux IA de travailler mieux avec les êtres humains. Il permet également de mieux équiper les systèmes contre les biais sexistes et racistes qui peuvent souvent exister dans les intelligences artificielles, qui ne font au final que répéter et grossir ce qu’on leur apprend.

Plus