Des programmateurs tentent de développer des intelligences artificielles capables de détecter l’intimidation et le harcèlement dans les boites mails. Mais cette nouvelle technologie pose encore pas mal question.
Ces IA sont appelées #MeTooBots en référence au mouvement lancé fin 2017 sur les réseaux sociaux. Leur rôle: analyser les mails des employés, les documents de l’entreprise ou la chatbox afin d’y détecter de possibles signes d’intimidation ou de harcèlement sexuel. Lorsque ces signes sont détectés, le robot prévient un avocat ou les ressources humaines pour qu’ils mènent une enquête.
Cette technologie devient de plus en plus populaire, notamment dans les cabinets d’avocats où un tiers des juristes de sexe féminin a déjà déclaré avoir été victime de harcèlement.
Reconnaitre le harcèlement
Apprendre ce qu’est le harcèlement à un robot n’est pas facile. Un humain peut déjà avoir des difficultés à en connaitre toutes les formes. ‘Il y a un type de harcèlement qui est très subtil et difficile à détecter. Nous avons des formations [là-dessus] à Harvard, et cela demande un niveau de compréhension que les IA n’ont pas encore‘ explique le Professeur Brian Subirana, expert en intelligence artificielle au MIT et à Harvard, au journal The Guardian.
Le robot a été formé à reconnaitre des déclencheurs spécifiques. Il ne sait pas aller plus loin. Par exemple, il n’est pas capable de comprendre des dynamiques culturelles ou interpersonnelles plus larges que ce qu’il a appris. Le risque est qu’il laisse passer des messages subtils ou au contraire d’en dénoncer qui ne sont en réalité qu’un jeu entre deux adultes consentants.
Changer les comportements
L’utilisation de ce type d’IA dans une entreprise peut faire changer les comportements des harceleurs, en bien ou en mal.
Comme ils savent que leurs conversations sont analysées, certains employés vont faire plus attention à ce qu’ils écrivent. Cela peut donc éviter certaines réflexions inappropriées. Cependant, les harceleurs peuvent aussi recourir à d’autres moyens de communication laissés sans surveillance pour s’en prendre à leur victime.
Protection de la vie privée
Une autre question que pose cette technologie est celle de la protection de la vie privée. Le robot va lire toutes les conversations des employés. S’il détecte un problème, il peut tout envoyer à un responsable au sein de l’entreprise. Les échanges entre collègues ne sont alors plus du tout privés. Les robots pourraient être utilisés pour surveiller les employés et non pour les protéger.
Certaines entreprises ont donc poussé le raisonnement un peu plus loin. Une chatbox anonyme est ouverte aux employés pour qu’ils puissent signaler un comportement inapproprié. Et c’est seulement après que l’IA va analyser les conversations pour trouver des preuves du harcèlement.
Comme l’explique Tess Blair du cabinet Morgan Lewis qui expérimente cette technologie, ‘les ordinateurs ne jugent pas la valeur’. Ils ne font que signaler un problème. ‘Il nous appartient ensuite d’interpréter.’
Lire aussi: https://fr.businessam.be/amazon-developpe-une-intelligence-artificielle-qui-retranscrit-le-jargon-medical/