Selon le PDG de Mistral AI, la superintelligence n’est pas le plus grand danger de l’intelligence artificielle.


Principaux renseignements

  • Arthur Mensch, cofondateur de Mistral AI, privilégie la lutte contre les risques immédiats liés à la manipulation de l’IA plutôt que les menaces spéculatives liées à la superintelligence.
  • Mensch met en garde contre la formation potentielle d’un « oligopole de l’information » contrôlé par de puissants assistants IA tels que ChatGPT, qui pourraient être utilisés pour interférer dans les élections.
  • Il considère que les discussions sur les menaces existentielles liées à l’IA détournent l’attention des problèmes concrets tels que la désinformation et les préjugés.

Alors que des personnalités telles que Sam Altman et Dario Amodei ont exprimé leurs inquiétudes quant aux dangers potentiels de l’IA avancée, Arthur Mensch, cofondateur de Mistral AI, adopte une position différente. Il considère que les discussions sur les menaces existentielles posées par la « superintelligence » détournent l’attention des problèmes plus urgents.

L’oligopole de l’information, un véritable danger

Mensch estime que le risque immédiat réside dans l’influence considérable que l’IA pourrait exercer sur la pensée humaine et les comportements électoraux. Dans un entretien accordé au journal Le Monde, il met en garde contre la formation d’un « oligopole de l’information » contrôlé par de puissants assistants IA tels que ChatGPT, qui, selon lui, pourraient être utilisés à des fins de manipulation lors des élections. Il souligne que les entités mêmes qui mettent en garde contre les risques extrêmes liés à l’IA possèdent souvent les outils capables d’exercer une telle influence.

Mensch minimise les inquiétudes concernant les scénarios catastrophiques dans lesquels une IA avancée éliminerait l’humanité, les qualifiant de science-fiction. Il suggère que ces déclarations sont délibérément conçues pour détourner l’attention. Tout en reconnaissant les progrès rapides du développement de l’IA, Mensch estime que l’accent devrait être mis sur la résolution de problèmes concrets tels que la désinformation, les préjugés, les violations du droit d’auteur et les répercussions sur la santé mentale.

Scepticisme à l’égard des risques extrêmes

Il n’est pas le seul à se montrer sceptique face à l’accent mis sur les risques extrêmes liés à l’IA. Certains éthiciens de l’IA trouvent le concept d’« intelligence artificielle générale » trop vague et abstrait. Yann Le Cun, ancien responsable de l’IA chez Meta, critique la rhétorique entourant les risques extrêmes liés à l’IA, qu’il qualifie de stratagème utilisé par les acteurs établis pour manipuler les réglementations à leur avantage, ce qui pourrait étouffer la concurrence des petites entreprises et des initiatives open source.

Suivez également Business AM sur Google Actualités

Si vous souhaitez accéder à tous les articles, abonnez-vous ici!

Plus