Web Analytics

Sam Altman rit des bunkers des ultra-riches : « Si l’apocalypse vient de l’IA, ça ne servira à rien »

Sam Altman rit des bunkers des ultra-riches : « Si l’apocalypse vient de l’IA, ça ne servira à rien »
Selon Sam Altman, les bunkers anti-apocalypse sont inutiles face à l’IA. (Kevin Dietsch/Getty Images)

Il est de notoriété publique que certains milliardaires disposent de bunkers où ils comptent s’abriter en cas d’apocalypse. À cause d’une guerre nucléaire ou d’une catastrophe climatique sans précédent, par exemple. Sam Altman, patron d’OpenAI et père de ChatGPT, explique pourquoi lui n’en a pas.

Dans l’actu : une nouvelle prédiction peu joyeuse d’Altman sur l’IA.

  • Cette semaine, Sam Altman a été interrogé sur les bunkers anti-apocalypse. En plus de se moquer gentiment de ceux qui en ont un, il a rappelé à quel point l’intelligence artificielle constituait une menace pour l’humanité.

Les détails : qu’a-t-il dit ?

  • Lors d’un événement organisé par le Wall Street Journal, une journaliste a demandé à Altman s’il disposait d’un bunker pour s’abriter en cas d’apocalypse.
  • « Je dirais que non », a-t-il répondu, dans des propos rapportés par Business Insider. « J’ai des structures similaires, mais je ne dirais pas un bunker. »
  • Le CEO d’OpenAI n’a pas donné davantage d’informations sur ce dont il disposait. Mais il a expliqué pourquoi il n’avait pas fait construire de bunker comme d’autres milliardaires.
  • « Rien de tout cela n’aidera si AGI tourne mal, c’est une question ridicule », a-t-il fait valoir.
    • AGI signifie « Artificial General Intelligence ». Cela correspond au moment où l’IA pourra effectuer n’importe quelle tâche cognitive propre à l’être humain.

Altman ne construit peut-être pas de bunker contre l’apocalypse, mais…

Le contexte : des propos de 2016 refont surface.

  • C’est loin d’être la première fois qu’Altman fait des prédictions inquiétantes au sujet de l’intelligence artificielle.
    • En mai, par exemple, il a coécrit un article sur le blog d’OpenAI où il expliquait que l’IA était susceptible de « dépasser le niveau de compétence des experts dans la plupart des domaines » d’ici dix ans. Ce qui, pour le résumer simplement, pouvait mener l’humanité au meilleur comme au pire. « Compte tenu de la possibilité d’un risque existentiel, nous ne pouvons pas nous contenter de réagir », avait-il notamment averti.
    • Un peu plus tôt, il avait aussi cosigné une déclaration aussi brève que claire : « L’atténuation du risque d’extinction lié à l’IA devrait être une priorité mondiale, au même titre que d’autres risques sociétaux tels que les pandémies et les guerres nucléaires. »
  • Ses propos sur les bunkers sont aussi à mettre en parallèle avec des propos qu’il avait tenus auprès du New Yorker en… 2016. Il expliquait alors qu’il se préparait bien à une apocalypse.
    • Altman expliquait que la fin du monde pourrait survenir à cause de la libération d’un « virus synthétique mortel », d’une « attaque par une IA » ou d’une « guerre nucléaire ».
    • Face à cette éventualité, il avait alors pour passe-temps la préparation à « survivre » en cas d’apocalypse. Pour ce faire, il disait accumuler des armes, de l’or, du potassium, des antibiotiques, des piles, de l’eau, des masques à gaz des forces de défense israéliennes. Il confiait aussi disposer d’un « grand terrain à Big Sur », une partie de la côte californienne.
    • En avril dernier, alors qu’il était désormais connu mondialement, Altman avait minimisé ses propos de l’époque dans le podcast Honestly with Bari Weiss. « C’était comme un passe-temps amusant, mais il n’y a rien d’autre à faire. Rien de tout cela ne vous aidera si [l’intelligence artificielle générale] tourne mal », avait-il expliqué.
Plus d'articles Premium
Plus