La société chinoise Taigusys a développé une intelligence artificielle capable de surveiller les émotions positives, négatives et neutres de travailleurs. Plusieurs dizaines de grosses entreprises chinoises, dont Huawei, China Unicom ou PetroChine, utiliseraient ce logiciel. Si Taigusys tente d’afficher les avantages pour les employés, cette IA dépasse clairement les droits humains.
En Chine, la surveillance accrue de la population n’est plus un secret. Leurs moindres faits et gestes sont analysés dans les lieux publics. Mais l’idéologie du contrôle va toujours plus loin. Et les employeurs semblent vouloir maintenant contrôler les émotions de leurs travailleurs.
Le logiciel de Taigusys filme les travailleurs et analyse leurs expressions faciales. Selon la firme chinoise, l’intelligence artificielle est capable de détecter la joie, la surprise, le sentiment d’être ému par quelque chose de positif, la colère, le mépris, le dégoût, le chagrin ou encore la concentration. Le logiciel serait même capable de reconnaitre un faux sourire.
La firme qui a développé le logiciel affirme qu’il a pour but de venir en aide aux travailleurs. Il peut notamment indiquer si quelqu’un a besoin d’un soutien émotionnel. Il a pour but également de détecter les situations conflictuelles ou de connaitre le niveau de stress d’un travailleur. L’entreprise ajoute toutefois que le logiciel peut ‘également déterminer si quelqu’un prépare quelque chose de suspect’.
À l’heure actuelle, seules plusieurs prisons ont déclaré utiliser ce logiciel, notamment pour éviter les agressions ou les suicides. Mais plusieurs dizaines d’entreprises chinoises telles que Huawei, China Unicom ou PetroChine, travaillent avec Taigusys. Ils n’ont toutefois pas voulu dire si elles utilisaient ce logiciel controversé.
Droits fondamentaux
Ce logiciel, révélé au grand jour par une enquête de The Guardian, a fait bondir les associations de protection des droits humains. Car cette surveillance outrepasse certains droits fondamentaux, tels que la liberté de pensée, d’expression et le droit à la vie privée. ‘Même dans les locaux d’un lieu de travail privé, il existe toujours une attente de confidentialité et de dignité, et le droit des employés d’agir librement et pensez librement’, affirme Vidushi Marda, responsable de programme principal à l’organisation britannique des droits de l’homme, Article 19, à Business Insider.
L’un des gros problèmes est également l’utilisation de ces données. ‘Il n’est jamais éthique que d’autres personnes utilisent des systèmes d’IA pour surveiller les émotions des gens, surtout pas si ceux qui font la surveillance sont en position de pouvoir par rapport à ceux qui sont surveillés, comme les employeurs, la police et le gouvernement’, affirme Daniel Leufer, analyste des politiques européennes chez Access Now.
Base scientifique
En outre, nombreux sont les experts qui doutent de la base scientifique de ce logiciel. Il n’existe pas de théories confirmées scientifiquement prouvant que telle expression faciale correspond à telle émotion. Chaque personne est différente et a une manière de réagir différemment à certaines émotions. En outre, certaines personnes sont très transparentes et leurs émotions se reflètent rapidement dans leur comportement alors que d’autres peuvent rester de marbre en toute circonstance.
Selon Desmond Ong, professeur adjoint au département des systèmes d’information et d’analyse de l’École d’informatique de l’Université nationale de Singapour, il est possible que certains logiciels soient capables de reconnaitre des situations dangereuses ‘comme les pilotes fatigués, en état d’ébriété ou souffrant de troubles mentaux’.
Mais Ong considère que ce type de logiciels réduit l’expression humaine à des émotions de base et supprime toute la complexité des émotions. Les théories sur les émotions affirment qu’ils existent des émotions de base – dont le nombre varie selon les auteurs – sur lesquelles sont construites une multitude d’autres émotions plus complexes, avec des degrés différents. Mais la psychologie a encore du mal à définir chaque émotion complexe. Il est donc difficilement imaginable qu’une IA soit capable de bien les reconnaitre.
Pour aller plus loin: