Une équipe de Microsoft développe une IA capable de générer de faux commentaires

Une équipe de Microsoft a publié ses travaux portant sur un bot d’intelligence artificielle (IA), DeepCom, capable de générer de faux commentaires sur des articles d’actualité. Quelle peut-être l’utilité d’une telle fonctionnalité ?

DeepCom emploie un réseau de lecture et un réseau de génération, pour coder les mots d’un article afin qu’ils soient analysés par son IA. Celle-ci détecte ensuite les concepts, les lieux ou les protagonistes les plus importants de l’information en question, sur lesquels le système se base pour produire un commentaire.

DeepCom aidera les nouveaux sites à se constituer un lectorat

Pour former DeepCom, les chercheurs l’ont alimenté avec les données provenant d’un million de commentaires postés par des Chinois concernant des articles d’actualité, ainsi que d’une masse de données en anglais provenant de publications sur Yahoo!.

Selon les chercheurs, DeepCom sera particulièrement utile pour les nouveaux médias et sites d’actualité. En effet, les lecteurs apprécient de pouvoir partager leur opinion. Les faux commentaires pourront les encourager à donner leur avis, et nourrir ainsi le débat en ligne. Ils pourront aussi permettre d’attirer l’attention sur des sujets moins populaires, et favoriser l’engagement des lecteurs. En bref, les faux commentaires devraient aider ces sites débutants à conquérir leur lectorat, et à le fidéliser.

Le risque de propagation de désinformation

Néanmoins, les auteurs n’évoquent pas les utilisations malveillantes qui pourraient être faites de leur technologie. Les faux-comptes et les bots qui pullulent sur l’Internet abusent déjà du public au travers de messages de désinformation et de fraudes. Plusieurs critiques ont déjà exprimé leur inquiétude. Peut-être faut-il donc se réjouir du fait que des chercheurs du MIT aient développé de leur côté Giant Language Model Test Room (GLTR), une IA capable de détecter des textes rédigés par une autre IA…

Ce n’est pas la première incursion de Microsoft dans le monde des bots. En 2016, “Tay”, un bot de chat que la firme avait développé pour poster des commentaires sur Twitter, avait dû être désactivé quelques heures seulement après sa mise en service. En effet, après avoir été formé sur un grand nombre de tweets, il avait posté des messages racistes, homophobes et sexistes.

Plus