Avec le clash entre l’actrice Scarlett Johansson et OpenAI, qui aurait peut-être cloné sa voix sans autorisation, il est devenu évident que nous aurons encore de nombreuses discussions sur les limites éthiques de l’intelligence artificielle en tant que société. Une question importante est de savoir si les géants de la technologie peuvent parvenir à une forme d’autorégulation, ou si les gouvernements doivent imposer des règles.
Dans l’actualité : Il y a eu ces derniers jours trois grandes annonces internationales concernant la régulation de l’intelligence artificielle.
- À l’issue d’une initiative anglo-coréenne, 16 entreprises technologiques, dont Meta, Microsoft, OpenAI, Google et Amazon, se sont engagées lors d’un sommet sur l’IA à Séoul, en Corée du Sud, à établir une sorte de norme mondiale pour une IA sûre.
- L’UE a approuvé la loi sur l’IA au Conseil des ministres européens.
- Aux États-Unis, un groupe de sénateurs, dirigé par le leader du Sénat Chuck Schumer, a publié leur feuille de route pour l’innovation en matière d’IA.
Zoom avant : L’UE va clairement le plus loin dans la régulation avec des lois strictes, bien qu’il reste à voir comment ces lois seront appliquées en pratique. Mais en tout cas, les citoyens auront une base légale s’ils se sentent traités de manière injuste par des algorithmes d’IA, par exemple en raison de préjugés intégrés consciemment ou inconsciemment.
- « La loi sur l’IA est cruciale, car nous avons affaire à une technologie dont la puissance et la portée sont sans précédent« , déclare l’organisation européenne des consommateurs BEUC dans une réaction.
- « Bien que l’IA soit une technologie passionnante qui peut offrir de réels avantages pour la vie des gens, il existe des cas évidents où la technologie peut nuire aux gens. Les consommateurs doivent pouvoir faire confiance aux autorités pour intervenir si quelque chose tourne mal. »
- Et à propos de l’application concrète de la nouvelle réglementation : « Il est maintenant temps pour les gouvernements de tirer le meilleur parti de la nouvelle loi en nommant rapidement des régulateurs indépendants qui appliqueront la loi sur l’IA avec les ressources nécessaires. »
Autorégulation collective ou lois strictes ?
Comparaison : Le cadre américain reçoit de vives critiques de la part des activistes locaux, car les règles pour les grandes entreprises technologiques seraient trop laxistes. Roan Murphy, du think tank Center for European Policy Analysis, regrette quant à lui l’absence d’une approche transatlantique pour une technologie aussi fondamentale.
👉 « Les deux parties peuvent apprendre l’une de l’autre », écrit-il. « À part une législation récente qui oblige à vendre ou interdire l’application de médias sociaux TikTok, les États-Unis n’ont pas réussi à adopter une législation technologique majeure depuis des années. L’UE comble le vide en donnant le ton en matière de régulation mondiale. Mais les États-Unis investissent de l’argent dans la recherche et le développement de nouvelles technologies, tandis que l’UE reste à la traîne en termes de productivité et de compétitivité. »
Remarquable : Le gouvernement doit-il contrôler l’IA, ou les géants de la technologie sont-ils mieux placés pour le faire eux-mêmes ? Même au sein de l’UE, les avis divergent, comme le révèle une enquête commandée par l’entreprise informatique Salesforce en Belgique, aux Pays-Bas et en Suède.
- La moitié des Belges se tournent vers le gouvernement pour des règles plus strictes et une protection autour de l’IA, selon l’enquête, contre seulement 23 % des Suédois.
- Six Néerlandais sur dix estiment que la protection des données est avant tout une tâche pour les entreprises qui vendent un produit d’IA.
Nouvellement apparu : le Compliance Officer en IA
Émergent : Le nouveau cadre réglementaire européen conduit à des conseillers et des entreprises qui vont se spécialiser dans ce domaine. L’une d’elles est Reliance, une start-up belge fondée par trois consultants et faisant partie du groupe Cronos.
- « Les entreprises se concentrent aujourd’hui sur l’aspect technique de l’IA, mais le cadre réglementaire devient de plus en plus important », déclare Reliance. « Avec la loi européenne sur l’IA, une première étape a été franchie pour délimiter quels types d’applications d’IA sont autorisés ou non. Mais même ainsi, cela reste un terrain inconnu pour les entreprises : il n’y a pas encore de politique interne sur l’IA, les risques sont à peine cartographiés et elles ne sont pas suffisamment conscientes qu’il existe un grand nombre de règles. »
- Reliance veut surtout se concentrer sur les secteurs où la surveillance humaine restera cruciale, comme les services publics, le secteur des soins et les ressources humaines. « Si les applications d’IA ont des résultats injustes ou inexacts, cela peut avoir des conséquences considérables pour nous tous », déclare-t-elle.
- La start-up collabore également à la première formation de Compliance Officer en IA à la Hogeschool PXL, probablement une première en Europe. Francis Vos, directeur du département PXL-Business : « Ce sera au Compliance Officer en IA de veiller à ce que leur entreprise utilise l’IA de manière responsable et traite correctement les défis juridiques, éthiques et organisationnels. »