Elon Musk, Steve Wozniak et des centaines d’autres appellent à ralentir la recherche sur l’IA

L’homme le plus riche du monde Elon Musk, le co-fondateur d’Apple Steve Wozniak, l’écrivain Yuval Noah Harari et des centaines d’autres noms bien connus appellent dans une lettre ouverte à suspendre temporairement la recherche sur l’IA avancée. Ils veulent des garanties que la technologie ne sera pas développée sans contrôle et avertissent que le risque pour l’humanité est important.

Pourquoi est-ce important ?

ChatGPT a été mis à la disposition du grand public fin novembre 2022. À peine quatre mois plus tard, il semble que la technologie ait conquis le monde. ChatGPT compte des centaines de millions d'utilisateurs et les entreprises technologiques se bousculent pour annoncer leur propre chatbot. 

Dans l’actu : développer des systèmes plus puissants que GPT-4, le dernier modèle de langage d’OpenAI, pourrait être dangereux pour l’humanité, avertissent les experts dans leur lettre ouverte.

  • La lettre a été publiée par l’ONG Future of Life Institute, qui tente depuis 2014 de réduire le risque existentiel de l’IA avancée. Plus de 1.000 personnes de l’industrie technologique l’ont cosignée.
  • Ils demandent que le développement avancé de l’IA soit suspendu pendant six mois. Pendant ce temps, des protocoles de sécurité doivent être élaborés et mis en œuvre, sous la supervision d’experts indépendants.
  • « De puissants systèmes d’IA ne doivent pas être développés tant que nous ne sommes pas sûrs que leurs effets seront positifs et que leurs risques seront gérables », indique la lettre ouverte.
  • Ils citent également OpenAI (la start-up qui a créé ChatGPT), qui a écrit ce qui suit dans un article de blog en février. « À un moment donné, il peut être important d’obtenir une évaluation indépendante avant de former de futurs systèmes, et pour… limiter le taux de croissance des ordinateurs utilisés pour créer de nouveaux modèles. » Les cosignataires de la lettre en disent ceci : « Nous sommes d’accord. C’est maintenant. »

Pas de pause générale

Précision : Les signataires disent qu’ils ne veulent pas arrêter le progrès, ils veulent juste que celui-ci soit sûr.

  • « Ce n’est pas une pause dans le développement de l’IA en général, mais juste un pas en arrière par rapport à la course dangereuse vers des modèles de Black Box AI de plus en plus imprévisibles avec des capacités émergentes. »
  • Selon eux, les chercheurs en IA devraient principalement se concentrer sur les systèmes existants. Ceux-ci doivent être rendus plus transparents, précis, sûrs et crédibles avant que des systèmes plus puissants ne soient développés. Ils souhaitent également que les gouvernements fassent davantage pour réglementer l’IA. 

(OD)

Plus