« Vos produits doivent être sûrs avant d’être mis à disposition du public » : les PDG de Microsoft, Google et OpenAI attendus à la Maison blanche, au sujet de l’IA

Les PDG de quatre entreprises actives dans le domaine de l’intelligence artificielle sont invités à discuter des enjeux clé de l’IA, avec des hauts responsables politiques, dont Kamala Harris, à la Maison blanche. Les inquiétudes face à la « sûreté » des produits d’IA, dans le contexte de leur développement rapide, grandissent ces derniers mois.

Dans l’actu : une réunion entre plusieurs PDG d’entreprises actives dans le domaine de l’IA et la vice-présidente des États-Unis, Kamala Harris, ainsi que d’autres responsables politiques.

  • Elle aura lieu ce jeudi. Quatre entreprises seront représentées par leurs PDG : Microsoft, Alphabet, OpenAI et Anthropic.
  • Sur l’invitation, que Reuters a pu consulter, on peut lire que le président Joe Biden s’attend « à ce que des entreprises comme les vôtres s’assurent que leurs produits sont sûrs avant de les mettre à la disposition du public ».
  • La réunion a comme ordre du jour la discussion autour « d’enjeux clés de l’IA ».

Le contexte : la méfiance face à l’IA et son développement rapide ces derniers mois grandit.

  • À quoi aboutira cette réunion ? Une feuille de route avec des recommandations ? Un projet de loi ? Des promesses de la part de PDG à s’engager à mettre des produits « sûrs » à disposition du public ? Cela ne semble pas immédiatement clair.
    • Mais elle montre en tout cas que les craintes face à l’IA grandissent, surtout depuis le lancement de ChatGPT à la fin de l’année dernière et la « course à l’IA » qui a suivi.
  • Ce lundi, Geoffrey Hinton, un des fondateurs de l’intelligence artificielle et de l’apprentissage automatique, est sorti du silence, après avoir quitté son poste au sein de Google. Il estime que ce développement rapide est « effrayant » et qu’il représente une « menace pour l’humanité ». Il parle aussi de risques que des produits pas sûrs se retrouvent sur le marché.
  • Biden s’est également exprimé sur l’IA récemment. Le mois dernier, il indiquait que « que les entreprises technologiques ont la responsabilité de veiller à ce que leurs produits soient sûrs ». Il a précisé qu’il restait à voir si l’intelligence artificielle est dangereuse ou non.
    • Ces inquiétudes sur la « sûreté » des produits concernent notamment les biais qui peuvent exister, les violations de la vie privée des utilisateurs et la prolifération de fausses nouvelles.

À l’avenir : vers plus de régulation ?

  • Ces inquiétudes vont elles ouvrir la voie à la régulation de l’IA ? Ce n’est pas impossible. C’est en tout cas le souhait de nombreux observateurs, d’Elon Musk à Hinton.
Plus