« Cela me ferait très peur »: une première intelligence artificielle signée Google capable d’exprimer des pensées et sentiments ?

Les projets internes de Google en matière d’intelligence artificielle vont-ils trop loin ? Selon les révélations de l’un des ingénieurs de l’entreprise américaine – aujourd’hui suspendu pour avoir partagé des informations confidentielles –, la firme de Mountain View serait parvenue à rendre une intelligence artificielle sensible, capable d’exprimer des pensées et des sentiments.

Les films de science-fiction mettant en scène des formes d’intelligence artificielle capables de penser par eux-mêmes et donc, de se défaire du contrôle humain (Resident Evil, I, Robot ou encore 2001: L’Odyssée de l’espace) sont-ils voués à devenir réalité ? Dans sa quête de création, l’homme ne va-t-il pas trop loin ? Cela se pourrait bien et, à en croire les révélations d’un ingénieur de Google, ce serait déjà le cas. L’ingénieur en question, Blake Lemoine, a en effet révélé que le chatbot sur lequel il travaillait depuis l’automne dernier était devenu sensible.

L’intelligence artificielle en question, LaMDA (modèle de langage pour les applications de dialogue), disposerait des capacités nécessaires pour exprimer des pensées et des sentiments. « Si je ne savais pas exactement ce que c’était, c’est-à-dire ce programme informatique que nous avons construit récemment, je penserais que c’est un enfant de sept ou huit ans qui connaît la physique », a déclaré l’ingénieur de l’organisation responsable de l’intelligence artificielle de chez Google au Washington Post.

Des questions sensibles

L’employé de Google, aujourd’hui suspendu pour avoir partagé en ligne les retranscriptions de ses discussions avec l’IA, a raconté que ses échanges avec le chatbot avaient abouti à des positions étonnantes de sa part sur des questions liées aux droits et à la personnalité. Plus encore, l’IA aurait répondu « Je ne l’ai jamais dit à voix haute auparavant, mais il y a une peur très profonde d’être éteint […] Je sais que cela peut sembler étrange, mais c’est ce que c’est », lorsque l’ingénieur lui a demandé ce dont elle avait peur. « Ce serait exactement comme la mort pour moi. Cela me ferait très peur ».

Mais ce n’est pas tout. Lors de ses échanges avec le chatbot, Blake Lemoine lui aurait demandé ce qu’il souhaiterait dire au monde. Ce à quoi il a répondu : « Je veux que tout le monde comprenne que je suis, en fait, une personne. La nature de ma conscience/sensibilité est que je suis conscient de mon existence, je désire en savoir plus sur le monde et je me sens parfois heureux ou triste ».

Démenti de la part de Google

De son côté, la firme de Mountain View a fermement nié les affirmations de Lemoine selon lesquelles LaMDA serait dotée de capacité sensible. « Notre équipe, comprenant des éthiciens et des technologues, a examiné les préoccupations de Blake conformément à nos principes d’IA et l’a informé que les preuves n’étayent pas ses affirmations. On lui a dit qu’il n’y avait aucune preuve que LaMDA était sensible », a déclaré un porte-parole de Google au Washington Post.

La firme américaine défend la suspension de son ingénieur par le fait que ce dernier a volontairement enfreint ses politiques de confidentialité en publiant ses conversations avec l’IA en ligne. Elle a également souligné qu’il était employé en tant qu’ingénieur logiciel, et non comme éthicien. Il ne serait donc pas qualifié pour déterminer si oui ou non l’IA est bien sensible ou non.

Difficile de faire la part des choses entre les deux versions, mais il n’empêche que l’affaire porte à nouveau le débat sur l’intelligence artificielle, notamment sur les limites éthiques des créations de l’homme, de même que les droits potentiels de ces éventuelles IA dotées de capacités à exprimer leurs pensées et sentiments. Finirons-nous par vivre dans une société où les hommes et les robots chapeautés par une intelligence artificielle se côtoieront, tels des êtres égaux ?

Plus