Il est de notoriété publique que certains milliardaires disposent de bunkers où ils comptent s’abriter en cas d’apocalypse. À cause d’une guerre nucléaire ou d’une catastrophe climatique sans précédent, par exemple. Sam Altman, patron d’OpenAI et père de ChatGPT, explique pourquoi lui n’en a pas.
Dans l’actu : une nouvelle prédiction peu joyeuse d’Altman sur l’IA.
- Cette semaine, Sam Altman a été interrogé sur les bunkers anti-apocalypse. En plus de se moquer gentiment de ceux qui en ont un, il a rappelé à quel point l’intelligence artificielle constituait une menace pour l’humanité.
Les détails : qu’a-t-il dit ?
- Lors d’un événement organisé par le Wall Street Journal, une journaliste a demandé à Altman s’il disposait d’un bunker pour s’abriter en cas d’apocalypse.
- « Je dirais que non », a-t-il répondu, dans des propos rapportés par Business Insider. « J’ai des structures similaires, mais je ne dirais pas un bunker. »
- Le CEO d’OpenAI n’a pas donné davantage d’informations sur ce dont il disposait. Mais il a expliqué pourquoi il n’avait pas fait construire de bunker comme d’autres milliardaires.
- « Rien de tout cela n’aidera si AGI tourne mal, c’est une question ridicule », a-t-il fait valoir.
- AGI signifie « Artificial General Intelligence ». Cela correspond au moment où l’IA pourra effectuer n’importe quelle tâche cognitive propre à l’être humain.
Altman ne construit peut-être pas de bunker contre l’apocalypse, mais…
Le contexte : des propos de 2016 refont surface.
- C’est loin d’être la première fois qu’Altman fait des prédictions inquiétantes au sujet de l’intelligence artificielle.
- En mai, par exemple, il a coécrit un article sur le blog d’OpenAI où il expliquait que l’IA était susceptible de « dépasser le niveau de compétence des experts dans la plupart des domaines » d’ici dix ans. Ce qui, pour le résumer simplement, pouvait mener l’humanité au meilleur comme au pire. « Compte tenu de la possibilité d’un risque existentiel, nous ne pouvons pas nous contenter de réagir », avait-il notamment averti.
- Un peu plus tôt, il avait aussi cosigné une déclaration aussi brève que claire : « L’atténuation du risque d’extinction lié à l’IA devrait être une priorité mondiale, au même titre que d’autres risques sociétaux tels que les pandémies et les guerres nucléaires. »
- Ses propos sur les bunkers sont aussi à mettre en parallèle avec des propos qu’il avait tenus auprès du New Yorker en… 2016. Il expliquait alors qu’il se préparait bien à une apocalypse.
- Altman expliquait que la fin du monde pourrait survenir à cause de la libération d’un « virus synthétique mortel », d’une « attaque par une IA » ou d’une « guerre nucléaire ».
- Face à cette éventualité, il avait alors pour passe-temps la préparation à « survivre » en cas d’apocalypse. Pour ce faire, il disait accumuler des armes, de l’or, du potassium, des antibiotiques, des piles, de l’eau, des masques à gaz des forces de défense israéliennes. Il confiait aussi disposer d’un « grand terrain à Big Sur », une partie de la côte californienne.
- En avril dernier, alors qu’il était désormais connu mondialement, Altman avait minimisé ses propos de l’époque dans le podcast Honestly with Bari Weiss. « C’était comme un passe-temps amusant, mais il n’y a rien d’autre à faire. Rien de tout cela ne vous aidera si [l’intelligence artificielle générale] tourne mal », avait-il expliqué.