Loi européenne sur l’IA : Microsoft pour, Meta contre code de conduite volontaire


Principaux renseignements

  • Microsoft prévoit d’adhérer au code volontaire de l’Union européenne sur l’IA.
  • Meta s’oppose à ce code en raison des incertitudes juridiques et des obstacles à l’innovation.
  • L’UE souhaite que ce code soit largement adopté afin de garantir un développement responsable de l’IA.

Le président de Microsoft, Brad Smith, a indiqué que l’entreprise participerait probablement au code de conduite de l’Union européenne en matière d’intelligence artificielle (IA). Ce code volontaire vise à apporter une clarté juridique aux entreprises qui cherchent à se conformer à la réglementation révolutionnaire de l’UE en matière d’IA. Les signataires doivent publier des résumés détaillant les données utilisées pour former leurs modèles d’IA à des fins générales. Ils doivent également rédiger des politiques conformes aux lois européennes sur les droits d’auteur.

Le code fait partie intégrante de la loi sur l’IA (AI-Act), qui est entrée en vigueur en juin 2024. La loi s’applique à un large éventail d’entreprises, dont des géants tels qu’Alphabet (société mère de Google), Meta (société mère de Facebook), OpenAI, Anthropic, Mistral et des milliers d’autres. Smith a souligné la volonté de Microsoft de coopérer avec l’autorité de régulation de l’IA de l’UE.

Le code de l’UE vise à aider les entreprises à mettre en œuvre des processus et des systèmes pour se conformer aux réglementations en matière d’IA. Parmi les principales exigences figurent la fourniture et la mise à jour régulière de la documentation sur les outils et les services d’IA, l’interdiction de la formation sur des contenus illégaux et l’obligation pour les entreprises de se conformer aux demandes des détenteurs de droits concernant l’utilisation de leurs œuvres dans les ensembles de données.

L’opposition de Meta

En revanche, Meta a décidé de ne pas signer le code. Joel Kaplan, responsable des affaires mondiales de Meta, s’est dit préoccupé par le fait que le code introduit des incertitudes juridiques pour les développeurs et dépasse le champ d’application de la loi sur l’IA.

Il a critiqué l’approche de l’UE, estimant qu’elle entraverait le développement de l’IA et l’innovation en Europe.

La loi sur l’IA

La loi sur l’IA elle-même est un cadre réglementaire fondé sur le risque pour les applications de l’IA. Elle interdit certaines utilisations à « risque inacceptable », telles que la manipulation du comportement cognitif et la notation sociale. En outre, elle définit des utilisations « à haut risque », notamment la biométrie et la reconnaissance faciale, dans des domaines tels que l’éducation et l’emploi. Les développeurs doivent enregistrer les systèmes d’IA et se conformer à des obligations de gestion des risques et de la qualité.

Malgré l’opposition de géants de la technologie tels qu’Alphabet, Meta, Microsoft et Mistral AI, l’Union européenne s’en tient à son calendrier de mise en œuvre de la loi sur l’IA.

Plus