Les oiseaux de malheur de l’IA sont de retour, et cette fois, ce sont des dirigeants d’entreprises mondiales qui prédisent la fin de l’humanité à très court terme

Les risques que l’intelligence artificielle pourrait représenter pour l’humanité inquiètent de plus en plus face à l’expansion fulgurante de cette nouvelle technologie depuis le lancement de ChatGPT. L’IA pourrait bien menacer la civilisation telle que nous la connaissons dans un futur très proche.

Dans l’actu : Sur 119 dirigeants de grandes entreprises, 42% d’entre eux pensent que l’IA pourrait détruire l’humanité d’ici 5 à 10 ans, selon une étude réalisée par l’université de Yale.

  • Un constat particulièrement alarmant quand on sait que cette étude inclut des pointures provenant d’un large éventail d’entreprises, telles que Doug McMillion, CEO de Walmart, James Quincy, CEO de Coca-Cola, les dirigeants de Zoom et de « l’industrie pharmaceutique, des médias et de l’industrie manufacturière », indique CNN, qui cite cette étude.
  • Dans le détail, 34% des CEO considèrent que l’IA pourrait causer la destruction de l’humanité dans les dix prochaines années, tandis que 8% estiment que cela pourrait se produire dans les cinq prochaines années.
  • Petite tentative de réconfort : 58% des dirigeants affirment ne pas être inquiets et pensent que cela ne se produira jamais.
  • Dans la même veine plus optimiste, les CEO interrogés par Yale sont unanimement convaincus des nombreux avantages de l’IA – alors que les risques ne font pas consensus.
    • Seulement 13% estiment que les possibilités offertes par l’IA sont surestimées, tandis que 87% ont soutenu qu’elles ne l’étaient pas.
    • L’impact le plus transformateur de l’IA se fera ressentir dans trois secteurs clés : les soins de santé (48%), les services professionnels/l’informatique (35%) et les médias/le numérique (11%).
  • Globalement, les chefs d’entreprise se divisent en cinq groupes distincts en ce qui concerne l’IA :
    • Le premier groupe est composé des « créateurs curieux », des « croyants naïfs » qui soutiennent que tout ce qui est possible doit être fait.
    • Les « euphoriques » ne voient que le bon côté de la technologie.
    • Les « profiteurs commerciaux » cherchent à tirer profit de l’IA sans nécessairement comprendre pleinement ses implications.
    • Les activistes alarmistes et les défenseurs de la gouvernance mondiale sont les deux camps qui poussent à une répression de l’IA.

Le contexte : Cette étude arrive à peine quinze jours après une déclaration de spécialistes du secteur, avec un message similaire.

  • Un groupe de chercheurs, d’ingénieurs et de CEO, dont celui d’OpenAI, Sam Altman, ont signé une déclaration commune de 22 mots mettant en garde contre la menace existentielle que représente l’IA pour l’humanité.
  • Leur message est sans équivoque : « L’atténuation du risque d’extinction lié à l’IA devrait être une priorité mondiale, au même titre que d’autres risques sociétaux tels que les pandémies et les guerres nucléaires. »
  • Avant eux, une autre lettre co-signée par Elon Musk, Steve Wozniak & Cie appelait à une pause de six mois dans le développement de l’IA.
  • Geoffrey Hinton, considéré comme « le parrain de l’IA » (et qui a signé la fameuse déclaration de 22 mots), tire également la sonnette d’alarme sur sa création : « Je ne suis qu’un scientifique qui s’est soudain rendu compte que ces choses devenaient plus intelligentes que nous », a-t-il déclaré à CNN. « Je veux en quelque sorte tirer la sonnette d’alarme et dire que nous devrions nous préoccuper sérieusement de la manière dont nous pouvons empêcher ces choses de nous dominer. »
  • Selon lui, si l’IA « devient beaucoup plus intelligente que nous, elle sera très douée pour la manipulation« , notamment pour « contourner les restrictions que nous lui imposons ».

Des risques de discrimination bien supérieurs

En marge : Une création de l’homme qui finit par l’exterminer, c’est le scénario de base de nombreux films de science-fiction. Mais la destruction de l’humanité est-elle vraiment le risque le plus probable de l’IA ?

  • Selon la commissaire européenne à la concurrence, Margrethe Vestager, « il est probable que [le risque d’extinction] existe, mais je pense que la probabilité est assez faible. Je pense que les risques liés à l’IA sont plutôt que les gens soient discriminés, qu’ils ne soient pas considérés comme ce qu’ils sont », a-t-elle déclaré, selon The Guardian.
  • « Si c’est une banque qui l’utilise pour décider si je peux obtenir un prêt hypothécaire ou non, ou si ce sont les services sociaux qui s’occupent de votre municipalité, alors vous voulez vous assurer que vous n’êtes pas victime de discrimination en raison de votre sexe, de votre couleur ou de votre code postal », a-t-elle expliqué.
  • À ce sujet, l’UE prépare une législation pour réguler les systèmes d’IA, en les classant en fonction des risques.
    • Les technologies d’IA seront regroupées en quatre catégories : risque inacceptable, risque élevé, risque limité et risque minimal.
    • Les systèmes d’IA supervisant les accès au crédit bancaire et les services publics essentiels sont considérés à haut risque, ce qui implique qu’ils seront soumis à des « exigences claires » spécifiques.
Plus