Bien que l’UE mette les bouchées doubles pour encadrer l’IA, une réglementation n’est pas encore à l’ordre du jour et son application ne sera pas immédiate, une fois le texte terminé. C’est pourquoi les régulateurs tentent de limiter les abus, sur base volontaire.
L’actualité : dans sa quête de responsabiliser les entreprises technologiques, l’UE leur demande d’agir vis-à-vis des risques de désinformation de l’IA et des outils basés sur celle-ci.
- L’idée est d’avertir les utilisateurs que le contenu généré par l’intelligence artificielle pourrait conduire à de la désinformation.
- Les nouvelles technologies telles que l’IA « peuvent être une force pour le bien », mais elles peuvent également avoir « des côtés obscurs », apporter « de nouveaux risques » et mener à des conséquences négatives pour la société, a assuré Vera Jourova, vice-président de la Commission européenne, ce lundi.
De nouveaux défis pour la lutte contre la désinformation
La demande de la vice-présidente de la Commission européenne est doublement intéressante puisque, d’une part, elle cherche à encadrer l’utilisation de l’IA en attendant qu’une réglementation spécifique européenne voie le jour, et d’autre part, elle tente de redorer l’image du Code européen de bonnes pratiques contre la désinformation, après qu’Elon Musk a décidé d’en retirer Twitter. Un véritable affront pour l’UE.
Le détail : Vera Jourova demande aux actuels adhérents de ce code, TikTok, Microsoft ou encore Meta, de « clairement étiqueter » tous les services susceptibles de diffuser de la désinformation générée par l’IA.
- « Les signataires qui intègrent l’IA générative dans leurs services comme Bing Chat pour Microsoft, Bard pour Google devraient intégrer les garanties nécessaires pour que ces services ne puissent pas être utilisés par des acteurs malveillants pour générer de la désinformation », a déclaré la vice-présidente de la Commission.
- Autrement dit, l’UE demande à ce que les Big Tech fassent en sorte que leurs services boostés à l’IA ne soient pas utilisés pour véhiculer des fakes news.
« Les signataires qui ont des services susceptibles de diffuser la désinformation générée par l’IA devraient à leur tour mettre en place une technologie pour reconnaître ce contenu et l’indiquer clairement aux utilisateurs. »
Un sparadrap sur une plaie ouverte
Rappelons que l’adhésion à l’Alliance européenne contre la désinformation repose sur un engagement purement volontaire et qu’aucune forme de punition ne peut être appliquée en cas de manquement. C’est d’ailleurs pourquoi Twitter a pu la quitter aussi facilement le mois dernier.
- Mais en mettant à jour les cas de figure où les entreprises technologiques doivent faire des efforts pour éviter les fake news, l’UE tente d’apporter un début de solution à quelque chose qui demandera certainement plusieurs années avant d’être parfaitement encadrée.
- Car oui, si l’Union européenne travaille à réguler l’intelligence artificielle, il lui faudra des années avant que la loi soit appliquée. Et on peut également imaginer qu’un temps d’adaptation soit prévu.