Le monstre créé par l’IA : le suicide d’un Belge marque-t-il le début d’une épidémie ?

Récemment, des milliers d’experts de l’industrie technologique ont mis en garde contre le danger de l’IA. La menace s’est intensifiée depuis les progrès rapides de la puissance informatique, qui, selon les initiés, est une révolution qui rendra finalement les humains complètement obsolètes. Il est remarquable que, bien que tous les acteurs du monde de l’IA se rendent compte qu’ils ne contrôlent plus la bête, le développement progresse encore plus rapidement qu’auparavant. Le suicide d’un Belge qui conversait avec un chatbot est un vague présage de ce qui nous attend.

Les prophètes de la peur

Il y a certainement quelque chose qui se trame lorsque les plus grandes têtes pensantes, dont Elon Musk et Yuval Harari, nous mettent en garde contre un emballement du système d’IA.

Comme les armes, les révolutions technologiques ne sont pas neutres. On peut en faire de bonnes choses, comme mieux détecter les symptômes du cancer, mais on peut aussi manipuler l’humanité avec des deepfakes, ou on peut même s’en servir pour forcer les gens à se suicider, comme cela a été le cas récemment chez nous, en Belgique. Un homme, bien que présentant déjà des tendances dépressives, a été incité par le chatbot à « rejoindre le paradis ».

Le monstre en trois lettres reste quelque peu innocent

L’accusation la plus virulente est toutefois venue de Ian Hogarth, l’un des premiers investisseurs dans l’IA et auteur du célèbre rapport « State of AI« , qui explique en détail ce qui nous attend.

Il affirme que la révolution autour de l’IA va complètement bouleverser le monde. AGI est l’abréviation quelque peu innocente « d’intelligence générale artificielle ». Il s’agit de systèmes informatiques qui devraient être capables de faire tout ce qu’un humain peut faire. Ces systèmes sont désormais possibles grâce à deux révolutions majeures qui ont eu lieu au cours des dix dernières années.

  • Les systèmes d’IA sont alimentés par des images et des textes. Alors qu’en 2012, les modèles d’IA ne pouvaient accéder qu’à 15 millions d’images, ce chiffre a déjà grimpé à 2 milliards aujourd’hui.
  • Plus impressionnant encore, la puissance de calcul a été multipliée par 100 millions dans le même laps de temps.

Les entreprises à l’origine de cette course sont DeepMind, aujourd’hui propriété de Google mais fondée par l’Anglais Demis Hassabis, et OpenAI, l’entreprise à l’origine de ChatGPT, cofondée par Elon Musk mais aujourd’hui dirigée par Sam Altman, et que Microsoft possède en partie.

Les moteurs de ce développement fulgurant

Selon Hogarth, qui les connaît très bien, trois motifs poussent ces entreprises à aller de l’avant.

  • Ils veulent tous être les premiers dans cette révolution. Sam Altman n’a pas hésité à faire référence dans une interview précédente à une citation de Robert Oppenheimer, l’inventeur de la bombe atomique : « La technologie arrive parce qu’elle est possible », reconnaissant en substance qu’elle échappe désormais à son contrôle, ce qui est tout de même un peu effrayant.
  • La deuxième raison est une motivation altruiste. Il est certainement vrai que si l’IA est correctement employée, elle apportera des avantages à la société dans des domaines clairement définis, où sa puissance brute de calcul et de raisonnement peut contribuer à la réalisation des priorités de la société en matière d’éducation, de soins de santé et de climat.
  • La troisième raison, et la plus importante, est bien sûr l’argent. Les investissements dans les entreprises d’IA explosent aujourd’hui. Rien qu’au cours des trois premiers mois de 2023, alors que le climat d’investissement reste médiocre, plus de 11 milliards de dollars ont été investis dans des entreprises liées à l’IA.

Les dangers d’un système qui s’emballe

Cela n’empêche pas ces systèmes d’être faillibles, comme nous l’avons rapporté dans un précédent article. Si vous leur mettez à disposition des informations erronées, ces systèmes peuvent toujours générer des conneries.

Plus important encore, selon Hoghart, ces systèmes peuvent potentiellement détruire l’humanité. Un avis de plus en plus partagé par les experts travaillant dans ce domaine.

Un exemple récent en témoigne. Les Nations unies ont demandé à un système d’IA de développer une méthode pour désacidifier les océans, en tenant compte des poissons qui s’y trouvent. Le système a miraculeusement trouvé une solution concluante avec une seule lacune : les stocks chimiques nécessaires pour y parvenir entraîneraient la disparition de près de 25 % de l’oxygène de l’air dans le monde, ce qui signifierait la fin de l’humanité.

L’autorégulation qui ne fonctionnera pas

Consciente qu’elle joue avec le feu, la communauté de l’IA tente désormais de s’engager dans l’autorégulation. Aujourd’hui, on parle « d’alignement de l’IA », contre lequel les motivations de profit doivent être équilibrées par une sorte de comité d’éthique. Celui-ci guide l’entreprise sur le caractère responsable ou non de ses applications.

Seulement ici, les deux grands acteurs ont un nombre très limité de personnes affectées. Chez DeepMind, 2 % d’entre elles travaillent à la vérification de ces systèmes ou au moins des lignes directrices en la matière, contre 7 % chez OpenAI.

MB

Plus