Souhaitant se prémunir des potentielles dérives de l’intelligence artificielle, la Commission européenne a récemment émis une proposition de loi pour mieux contrôler le secteur. Elle est déjà qualifiée de « règlementation la plus restrictive au monde » en la matière.
En avril dernier, la Commission européenne a sorti de son chapeau l’Artificial Intelligence Act (AIA). Cette proposition de loi vise à réglementer l’intelligence artificielle, en classant notamment les innovations en la matière en trois catégories: interdites, à haut risque et à risque limité.
Selon la proposition de loi, seront interdites les technologies à base d’IA permettant la manipulation psychologique subliminale, ainsi que celles donnant l’occasion aux autorités publiques de faire de la surveillance biométrique en temps réel et de créer des systèmes de notation sociale.
Pour la catégorie dite « à haut risque », la Commission désigne les systèmes susceptibles d’affecter les droits fondamentaux et/ou la sécurité de ses consommateurs. Cela inclut l’utilisation de l’IA dans les infrastructures critiques, la formation scolaire et professionnelle, la gestion de l’emploi ou des travailleurs, les services publics et privés essentiels (y compris l’accès aux services financiers), l’application de la loi, le contrôle des frontières et la migration, et l’administration de la justice.
Si cet AIA devient loi, toutes les entreprises souhaitant se positionner sur ces secteurs « à haut risque » seront soumises à un très strict cahier des charges, en vue de se conformer aux nouvelles normes européennes.
Un argument « fallacieux » de la part de la Commission
Le Center for Data Innovation, un think tank basé à Washington D.C., vient de publier une étude ultra-critique envers cette proposition de loi. Le groupe de réflexion n’a pas hésité à la qualifier de « règlementation la plus restrictive au monde en matière d’intelligence artificielle ».
« Non seulement elle limitera le développement et l’utilisation de l’IA en Europe, mais elle imposera des coûts importants aux entreprises et aux consommateurs de l’UE », indique l’organisation dans son rapport.
D’après les calculs du think tank, une petite ou moyenne entreprise réalisant un chiffre d’affaires de 10 millions d’euros serait confrontée à des coûts de mise en conformité pouvant atteindre 400.000 euros si elle développait un système d’IA qui tombait dans la catégorie « à haut risque » de l’AIA. Au total, l’ardoise devrait s’élever, pour les entreprises européennes, à 10,9 milliards d’euros par an d’ici 2025, soit 31 milliards d’euros au cours des cinq prochaines années.
« La Commission a affirmé à plusieurs reprises que le projet de législation sur l’IA soutiendra la croissance et l’innovation dans l’économie numérique européenne, mais une analyse économique réaliste suggère que cet argument est au mieux fallacieux », a dénoncé Ben Mueller, analyste politique senior au Center for Data Innovation et auteur du rapport.
Le secteur a peur
La Commission n’a pas encore réagi aux calculs établis par l’organisme.
Ce faisant, soulignons que le think tank en question fait partie de la Fondation pour les technologies de l’information et l’innovation. Un organisme à but non lucratif… qui est soutenu par des sociétés comme Amazon, Apple et Microsoft.
Cela mène donc à penser qu’il ne faut bien sûr pas prendre cette lourde attaque envers l’AIA comme argent comptant. Une telle réaction de la part du monde de la tech laisse par contre penser que la proposition de loi l’effraie, et qu’elle pourrait donc avoir un réel impact sur l’utilisation de l’IA à l’avenir.
Un carcan très étroit ou trop étroit ? Ce sera au Parlement européen et au Conseil de l’UE d’en juger.
Sur le même sujet: