Web Analytics

Premier sommet international sur l’IA : que retenir de cette réunion ?

Premier sommet international sur l’IA : que retenir de cette réunion ?
Getty Images

La Chine, les États-Unis, l’UE et une vingtaine d’autres pays ont signé cette semaine la déclaration de Bletchley, au terme de la première journée du premier sommet international sur l’IA. Une déclaration qui vise au développement « sûr » de cette technologie en plein essor. Oui, mais encore ?

L’actualité : une trentaine de pays, dont certains gros acteurs sur secteur, se sont mis d’accord pour veiller au développement « sûr » de l’IA.

  • Les participants au premier sommet international sur l’IA ont reconnu « le besoin urgent de comprendre et de gérer collectivement les risques potentiels » de cette technologie à travers à « un nouvel effort mondial visant à garantir que l’IA est développée et déployée de manière sûre et responsable ».
  • « Cette déclaration historique marque le début d’un nouvel effort mondial visant à renforcer la confiance du public dans l’IA en veillant à ce qu’elle soit sûre », a déclaré le Premier ministre du Royaume-Uni, Rishi Sunak, sur X.

C’est bien joli tout cas, mais qu’est-ce que cela implique ? L’accord est-il un minimum contraignant ? Rappelons que pour l’heure, aucune législation – même si l’UE s’attèle – n’a vu le jour pour encadrer l’IA.

Le début de quelque chose

Depuis qu’OpenAI a rendu public ChatGPT en décembre dernier, le secteur technologique est animé par une véritable frénésie pour l’intelligence artificielle et en particulier l’IA générative. Intérêt prononcé qui a contaminé les marchés, boostant des entreprises actives dans le secteur telles que Nvidia, pour n’en citer qu’une. Ses puces GPU sont désormais le moteur de l’industrie. Une popularité qui a allumé les signaux d’alarme des régulateurs, car cette technologie, aussi intéressante soit-elle, représente des risques.

  • L’UE a été la première à vouloir encadrer les développeurs d’IA. Elle a d’ailleurs rappelé à OpenAI l’importance du respect des données privées.
  • Les États-Unis ont suivi, bien qu’il ne soit pour l’instant question de discussions avec les acteurs du secteur.
  • La Chine, de son côté, applique un contrôle strict en tout temps et continue de le faire avec l’IA.

Malgré l’envie d’écraser la concurrence, plusieurs pays ont pris conscience des risques de l’IA et cherchent à présent à s’allier pour éviter les abus. D’où la tenue d’un tel sommet.

  • La déclaration de Bletchey, signée par la trentaine de pays présents lors de la réunion, « montre que pour la première fois, le monde se réunit pour identifier le problème et mettre en avant ses opportunités », a déclaré la ministre britannique de la Technologie Michelle Donelan à l’AFP.
  • Reste que cette réunion « n’a pas pour objectif de poser les bases d’une législation mondiale », mais plutôt de « servir à tracer une voie à suivre », a-t-elle précisé.
  • Autrement dit, la déclaration de Bletchey n’a rien de contraignant et les pays signataires feront ce qu’ils veulent en matière d’IA.

Deux autres sommets internationaux sont déjà prévus, un en Corée du Sud dans 6 mois et un autre en France dans un an.

À noter : le sommet se poursuit ce 2 novembre. Une journée placée sous le signe des dangers potentiels de l’IA. Au terme, le Royaume-Uni espère convaincre les décideurs internationaux de créer un groupe d’experts sur le modèle du GIEC.

Du concret pour encadrer l’IA

Sans vouloir paraitre cynique, est-ce que quelque chose de constructif est déjà ressorti de tels sommets internationaux ? Ou, sommes-nous en train de nous voiler la face ? D’autant plus que le sommet se tient à « huis clos » et en présence de géants de la tech, dont Elon Musk, ont critiqué une centaine d’organisations, experts et militants internationaux.

Les recommandations, c’est bien joli, mais à un moment, il faut du concret. Et vite, au vu de la rapidité avec laquelle l’IA se développe. Et ce seront aux pays de mettre en œuvre des choses pour encadrer cette technologie, comme l’ont annoncé le Royaume-Uni et les États-Unis avec chacun la création d’instituts de recherche sur la sécurité de l’intelligence artificielle. Et de préférence, sans que les acteurs du secteur mettent leur grain de sel.

  • Des experts y seront chargés d’établir « des lignes directrices » et d’évaluer les modèles d’IA les plus avancés pour « identifier et atténuer » les risques, a expliqué la Maison-Blanche.
  • Mais là aussi, il faudra mettre la deuxième si les régulateurs ne veulent pas être dépassés – ce qui est en réalité déjà un peu le cas.

Car si cette technologie semble récente, il n’en est rien.

  • L’intelligence artificielle, même générative, existe depuis des années.
  • Le véritable problème qui se pose aujourd’hui, l’accessibilité de l’IA. Tout le monde peut profiter des différents services qu’elle propose. Mais aussi que l’engouement pour elle fait que son développement est très rapide.
    • Sur base d’une simple requête, on peut obtenir du texte, des sons ou des images en quelques secondes. Et à mesure que l’intérêt se maintiendra, les IA génératives accessibles au grand public gagneront en fonctionnalités.
  • Mais si beaucoup se concentrent sur les bénéfices que peut apporter une telle technologie, en parallèle se développe une utilisation beaucoup moins positive.
  • Pourtant, les mises en garde se multiplient depuis près d’un an sur les risques potentiels d’une telle technologie pour la société, mais aussi l’humanité.

La complexité de la chose, au-delà de comprendre le dossier dans son ensemble, est de mettre en place des garde-fous sans entraver l’innovation. Chose dont serait incapable l’UE, selon certaines critiques, mais aussi plusieurs acteurs du secteur qui s’inquiètent d’une législation européenne potentiellement étouffante.

Plus d'articles Premium
Plus