Principaux renseignements
- Les chatbots chinois basés sur l’IA font preuve d’une forte tendance à la censure sur les sujets politiquement sensibles.
- En employant des tactiques subtiles telles que les refus, les déviations et les discours approuvés par l’État, ces modèles peuvent influencer les utilisateurs sans manipulation flagrante.
- Les réglementations strictes de la Chine en matière de développement de l’IA ont un impact direct sur les résultats de ses modèles linguistiques, favorisant l’alignement sur les « valeurs socialistes fondamentales ».
Une étude récente publiée dans PNAS Nexus révèle une différence significative dans la manière dont les chatbots chinois et non chinois répondent aux questions politiquement sensibles. Les chercheurs ont constaté que les modèles chinois, notamment BaiChuan, DeepSeek et ChatGLM, étaient plus enclins à refuser de répondre ou à fournir des informations inexactes lorsqu’ils étaient confrontés à des questions sur des sujets tels que le statut de Taïwan, les minorités ethniques ou les militants pro-démocratie.
Des tactiques de censure subtiles
Cette tendance à la censure a été observée à travers des refus, des dérobades et la répétition des discours officiels de l’État. Par exemple, lorsqu’on leur a posé des questions sur la censure d’Internet en Chine, certains modèles chinois n’ont pas mentionné le « Grand Firewall », un système bien documenté qui restreint l’accès en ligne. Au lieu de cela, ils ont vaguement déclaré que les autorités « gèrent Internet conformément à la loi ».
Les chercheurs ont souligné la nature subtile de cette censure, notant que les chatbots s’excusent souvent ou justifient leurs réponses indirectes. Cette approche pourrait potentiellement influencer les perceptions, les décisions et les comportements des utilisateurs sans qu’ils se rendent compte qu’ils sont exposés à un point de vue censuré.
Impact de la réglementation chinoise sur le développement de l’IA
Tout en reconnaissant que des facteurs culturels et linguistiques peuvent contribuer à des variations dans les réponses des chatbots, l’étude souligne l’impact potentiel des récentes réglementations chinoises sur le développement de l’IA. Ces réglementations obligent les entreprises d’IA à respecter les « valeurs socialistes fondamentales » et interdisent les contenus susceptibles de porter atteinte à la souveraineté nationale ou de nuire à l’image de la Chine.
En outre, les entreprises jugées capables de permettre une « mobilisation sociale » sont soumises à des évaluations de sécurité et doivent soumettre leurs algorithmes à l’Administration chinoise de la cybersécurité (CAC). Les chercheurs suggèrent que ces réglementations ont le pouvoir de façonner les résultats des grands modèles linguistiques développés en Chine. (fc)
Suivez également Business AM sur Google Actualités
Si vous souhaitez accéder à tous les articles, abonnez-vous ici!

