« Un danger pour l’humanité » : n’aurait-il pas mieux valu que Sam Altman ne retourne pas chez OpenAI ?

La société à l’origine de ChatGPT a fait la une de l’actualité ces derniers jours en raison de mésententes hiérarchiques. Son CEO, Sam Altman, a été contraint de démissionner avant de revenir à son poste, quatre jours plus tard. Mais les raisons de son éviction restent encore floues. Du moins, jusqu’à récemment.

L’actualité : une lettre rédigée par des chercheurs serait à l’origine du départ forcé de Sam Altman à la tête d’OpenAI.

  • La veille de son éviction, le conseil d’administration a en effet reçu une lettre rédigée par plusieurs chercheurs d’OpenAI.
  • Ces derniers les mettaient en garde contre une puissante découverte en matière d’IA qui pourrait menacer l’humanité, rapporte Reuters.

La compréhension de l’IA au cœur du scandale

Zoom arrière : le manque de transparence d’Altman vis-à-vis du conseil d’administration fut la raison évoquée pour justifier son éviction. Raison fort peu convaincante pour pas mal de monde, dont les centaines d’employés d’OpenAI qui ont menacé de démissionner s’il ne retrouvait pas son poste, mais aussi des investisseurs, effrayés à l’idée de voir leur mise perdre de sa valeur. Mais d’autres éléments auraient finalement joué dans la balance.

  • Les craintes du conseil d’administration de la société concernant la commercialisation d’avancées d’IA avant d’en appréhender véritablement les conséquences serait l’un de ces éléments.
  • La mise en garde des chercheurs concernant le risque de l’IA pour l’humanité serait un autre aspect qui aurait joué dans la décision d’évincer Altman.

La nomination temporaire d’Emmett Shear en tant que CEO d’OpenAI – en remplacement de Mira Murati, qui aura occupé ce poste durant moins de 48 heures – suggérait que la question de la menace de l’IA était au cœur de l’incident. Le cofondateur de Justin.tv, rebaptisé Twitch, reconnait les menaces existentielles que représente l’IA

Que disait la lettre exactement ?

Les chercheurs mettaient en garde contre une avancée importante de la société en matière d’IA. Selon certains, cette avancée reposerait sur le projet Q* (Q-start), en lien avec l’intelligence artificielle générale (AGI). Un projet sur lequel OpenAI a confirmé en interne travailler.

  • L’AGI est définie par la société comme des systèmes autonomes qui surpassent les humains dans les tâches les plus rentables, rapporte Reuters.
    • Le projet Q* aurait ainsi résolu des problèmes mathématiques grâce aux vastes ressources informatiques dont dispose la société… des problèmes mathématiques de niveau primaire.
    • Cela reste une étape importante pour les chercheurs d’OpenAI qui se montrent très optimistes concernant les succès futurs de leur nouvelle IA.
  • Les mathématiques sont considérées comme l’un des aspects les plus importants du développement de l’IA générative. Car cela signifie qu’elle possède des capacités de raisonnement importantes, similaires à celles de l’intelligence humaine.
  • L’AGI n’est pas qu’une calculatrice efficace. Sa particularité, à terme, est de savoir généraliser, apprendre et comprendre, comme un humain.

En résumé : dans leur lettre, les chercheurs mettent le doigt sur une crainte largement répandue qui s’est fait éclipser à mesure que l’IA devenait de plus en plus utile, à savoir que l’intelligence artificielle peut représenter un risque pour l’humanité, du moment où elle parviendra à penser seule. C’est pourquoi son développement doit se faire de manière réfléchie, en évaluant les répercussions de chaque étape de son développement.

Et le rôle d’Altman dans tout cela ?

OpenAI doit sa popularité à la vision avant-gardiste et au sens des affaires de Sam Altman. À la tête de la société, il a mis en place une approche axée sur la croissance et le développement, motivée par le besoin de financement et la recherche de nouvelles sources de revenus, faisant l’impasse sur les questions des risques de l’expansion rapide et incontrôlée de l’IA.

  • Son enthousiasme aveugle pour l’IA est ce qui lui aurait valu son éviction. Altman avait d’ailleurs récemment laissé entendre que l’AGI était à la portée d’OpenAI.
  • Mais dans le contexte actuel où la technologie a plus que le vent en poupe, les potentiels risques qu’elle représente sont mis de côté au profit des avancées technologiques. C’est en tout cas la conclusion à laquelle nous pouvons arriver.
  • Reste plus qu’à espérer que cet épisode de départ/retour aura eu pour effet une prise de conscience des risques de l’IA ou tout du moins des précautions à prendre pour persévérer dans son développement.
Plus