Un expert en IA repousse l’échéance de l’arrivée d’une IA superintelligente


Principaux renseignements

  • L’expert en IA Daniel Kokotajlo a révisé sa prédiction et repousse la date à laquelle l’IA pourra coder de manière autonome au début des années 2030.
  • Les experts reconsidèrent désormais le terme « AGI », alors que les systèmes d’IA deviennent de plus en plus polyvalents et capables d’agir dans plusieurs domaines.
  • Alors que la recherche sur l’IA automatisée se poursuit, l’intégration d’une IA potentiellement superintelligente dans les structures géopolitiques existantes reste un défi complexe.

Un spécialiste de l’intelligence artificielle a modifié sa prédiction concernant le danger potentiel posé par l’IA avancée, suggérant qu’il faudra plus de temps que prévu pour que les systèmes d’IA atteignent des capacités de codage autonomes et accélèrent leur développement vers la superintelligence.

Daniel Kokotajlo, ancien employé d’OpenAI, a attiré l’attention au début de l’année avec son scénario « AI 2027 », qui envisageait un développement incontrôlé de l’IA conduisant à la création d’une entité superintelligente qui finirait par surpasser les dirigeants mondiaux et entraînerait la destruction de l’humanité.

L’essor de l’AGI

Ce scénario provocateur a déclenché un débat, suscitant à la fois soutien et critiques. Alors que certains, comme le vice-président américain JD Vance, ont semblé faire référence aux travaux de Kokotajlo lorsqu’ils ont discuté du paysage concurrentiel du développement de l’IA entre les États-Unis et la Chine, d’autres les ont rejetés comme des spéculations irréalistes.

Le calendrier pour atteindre l’intelligence artificielle transformative, souvent appelée AGI (artificial general intelligence) – une IA capable d’exécuter la plupart des tâches cognitives comparables à celles des humains – est devenu un thème récurrent dans les discussions sur la sécurité de l’IA. La sortie de ChatGPT en 2022 a considérablement accéléré ces échéances, les experts et les décideurs prévoyant l’arrivée de l’AGI dans quelques dizaines d’années, voire dans seulement quelques années.

Attentes concernant le codage autonome

Kokotajlo et son équipe avaient initialement prédit que l’IA atteindrait le « codage entièrement autonome » d’ici 2027, tout en soulignant qu’il s’agissait davantage d’une estimation probabiliste que d’une prédiction définitive. Les développements récents suggèrent toutefois que des doutes croissants apparaissent quant à l’imminence de l’AGI et à la capacité même de ce terme à refléter avec précision l’état actuel de l’IA.

Des experts tels que Malcolm Murray, spécialiste de la gestion des risques liés à l’IA, notent que les progrès de l’intelligence artificielle ont été moins réguliers qu’initialement prévu et qu’un éventail plus large de compétences pratiques est nécessaire pour maîtriser la complexité du monde réel. Henry Papadatos, directeur exécutif de SaferAI, une organisation française à but non lucratif spécialisée dans l’IA, suggère que le terme « AGI » pourrait devenir moins pertinent à mesure que les systèmes d’IA gagnent en polyvalence et sont capables d’accomplir des tâches allant au-delà de domaines strictement définis comme les échecs.

Le scénario « AI 2027 » de Kokotajlo repose sur l’hypothèse selon laquelle des agents d’IA automatiseraient entièrement, d’ici 2027, le codage et la recherche en intelligence artificielle, déclenchant une « explosion d’intelligence » au cours de laquelle l’IA générerait de manière récursive des versions toujours plus intelligentes d’elle-même. L’un des résultats possibles de ce scénario serait l’élimination de l’humanité vers le milieu des années 2030 afin de faire place à des infrastructures étendues, telles que des panneaux solaires et des centres de données.

Superintelligence

Dans une mise à jour récente, Kokotajlo et ses collègues ont révisé leurs prévisions concernant le moment où l’IA pourra coder de manière autonome. Ils estiment désormais que cette étape devrait être atteinte au début des années 2030, plutôt qu’en 2027. Cette révision repousse l’arrivée attendue de la superintelligence à 2034 et écarte les spéculations sur un éventuel calendrier d’extinction de l’humanité causée par l’IA.

Malgré ces ajustements, le développement d’une recherche adaptée à l’IA reste un objectif central pour les principales entreprises du secteur. Sam Altman, PDG d’OpenAI, s’est fixé comme objectif interne de développer un chercheur en IA automatisé d’ici mars 2028, tout en reconnaissant les défis inhérents et la possibilité d’un échec. (fc)

Suivez également Business AM sur Google Actualités

Si vous souhaitez accéder à tous les articles, abonnez-vous ici!

Plus