Meta crée un mastodonte de l’IA pétri de bonnes intentions : « Ouvert, sûr et responsable »

Ce mardi, une cinquantaine d’organisations publiques et privées ont annoncé s’allier afin de travailler sur l’intelligence artificielle de manière « responsable ». À la baguette, notamment, Meta, IBM et Intel.

À la une : la naissance d’Alliance AI.

  • Au vu des craintes liées au développement rapide de l’intelligence artificielle, une cinquantaine d’acteurs se sont regroupés pour travailler de manière plus sûre.
  • Le fait que certains d’entre eux commencent à prendre du retard en la matière a certainement été décisif également : c’est l’occasion de revenir dans la course.

Alliance AI regroupe Big tech et universités

Les détails : qu’est-ce que c’est ?

  • Parmi la cinquantaine des membres fondateurs d’Alliance AI, beaucoup sont américains. Mais c’est bien une organisation internationale, qui regroupe également des acteurs européens et asiatiques. Citons-en d’abord quelques-uns :
    • De très grosses sociétés de la tech : Meta, IBM, Intel, Sony, Oracle…
    • Des universités et écoles de l’enseignement supérieur : Berkeley, Cornell, Yale, Tokyo, Jérusalem, Imperial College London, TU de Munich, ETH de Zurich…
    • Des agences scientifiques : NASA, CERN, NSF, A*STAR…
  • Leurs maîtres-mots sont : ouverture et transparence. À une époque où les alertes vis-à-vis d’un développement trop précipité de l’IA se multiplient, ils expliquent que réunir autant d’acteurs aux intérêts a priori très différents est une garantie de sécurité.
  • « Nous mettrons en commun nos ressources et nos connaissances pour répondre aux problèmes de sécurité tout en fournissant une plate-forme de partage et de développement de solutions adaptées aux besoins des chercheurs, des développeurs et des utilisateurs du monde entier », résume AI Alliance dans un communiqué.
  • L’organisation visera notamment à :
    • Produire des critères de référence et des normes d’évaluation afin de garantir un développement et une utilisation responsables de l’IA.
    • Favoriser un écosystème dynamique d’accélérateurs de matériel d’IA en stimulant les contributions et l’adoption de technologies logicielles essentielles.
    • Élaborer des ressources pédagogiques pour informer le public et les décideurs politiques sur les avantages, les risques, les solutions et la réglementation de l’IA.

Les dangers de l’IA semblent réels

Le contexte : des craintes, mais aussi du retard.

  • Le principal argumentaire d’Alliance AI – développer l’intelligence artificielle de manière « responsable » – fait directement écho aux dangers liés à l’IA. 
    • Le dernier exemple en date concerne la start-up qui a contribué à la forte démocratisation de l’IA depuis un an : OpenAI.
    • Peu après la saga autour de l’éviction et du retour de Sam Altman, on a appris que tout cela était lié à une lettre, adressée par des chercheurs d’OpenAI au conseil d’administration de l’entreprise.
    • Ils avaient expliqué que la société était en train de faire une puissante avancée susceptible de menacer l’humanité.
    • L’enthousiasme exacerbé d’Altman, couplé à son manque de transparence, aurait poussé le CA à le mettre de côté. Avant de finalement le faire revenir chez OpenAI.
  • Comme le note le Wall Street Journal, en dehors de cette intention somme toute louable, Alliance AI regroupe en fait aussi des entreprises qui ont pris du retard en matière d’IA. Elles auraient dès lors tout intérêt à s’allier pour revenir dans la course.
  • La dernière initiative de Meta en la matière est Llama 2. Un modèle d’IA en accès libre destiné aux chercheurs et aux entreprises. Censé notamment concurrencer GPT-4 d’OpenAI, il n’aurait pas encore eu le succès escompté.
  • Quant à IBM, elle avait été précurseure en 2010 en lançant Watson. L’IA avait d’abord impressionné en battant les meilleurs humains au jeu télévisé américain « Jeopardy ! », avant de se transformer en échec.
Plus