« Déconcertant, démoralisant, déshumanisant »: les entretiens d’embauche par robot angoissent les candidats, et manquent leur cible

Un appel vidéo avec un robot en guise de pré-mâchage du travail pour les recruteurs. Un procédé incompris par les candidats – des vidéos sont-elles écartées par l’IA? – et qui les pousse à adopter un comportement non-naturel. Selon une étude, ces entretiens manquent alors leur cible.

L’intelligence artificielle et les algorithmes ont déjà bien leur place dans le recrutement. Ils servent notamment à analyser des CV ou à chercher des candidats. Mais dernièrement, l’IA s’invite également dans les entretiens par vidéo, conduits par un robot.

Aujourd’hui, la majorité des entretiens se fait déjà par appel vidéo. 86% des entreprises y ont recours, selon la société de consultance Gartner, citée par Axios. Si ceux-ci se font cependant entre un candidat et un responsable de l’entreprise, une nouvelle tendance est que le candidat se retrouve devant un robot, qui analyse leurs réponses, ainsi que leurs expressions faciales, intonations et choix de mots – élément que les candidats dénoncent précisément, car ils ont du mal à paraître naturels devant un robot et se sentent déshumanisés, et perdent ainsi des chances d’être engagés.

« Déconcertant et démoralisant »

C’est l’expérience que Caron Mitchell, candidate pour un poste dans une start-up de la tech, raconte à Axios. Elle devait répondre à quatre questions et n’avait que deux minutes pour chacune (après un temps de 30 secondes pour les lire). « Un procédé déconcertant et démoralisant », décrit-elle. Elle ne pouvait pas « lire » son interlocuteur et rebondir sur ses réactions. Elle passait son temps à faire attention au délai de réponse et ne pouvait ainsi être elle-même.

Caron Mitchell n’a pas été engagée. Mais elle n’a aucune idée de comment sa candidature a été évaluée, si une personne physique a vu la vidéo ou si l’algorithme lui-même l’a écartée.

Les critiques des candidats sont également soulignées par une étude du Harvard Business Review (HBR) : « Étant donné que de nombreux demandeurs d’emploi ne comprenaient pas la technologie utilisée, ils se comportaient par défaut de manière rigide : ils avaient un regard fixe, un faux sourire ou une posture non naturelle, parlaient d’une voix monotone et gardaient les mains immobiles ».

Pas étranger aux biais

L’utilisation du robot est notamment justifiée, car il serait neutre et permettrait d’éviter des biais. Mais HBR analyse que ces systèmes peuvent également présenter des biais, notamment concernant le sexe ou la couleur de peau, et ont par exemple beaucoup plus de mal pour reconnaître le genre d’une femme de couleur (35% d’erreurs), que le genre d’un homme blanc.

Les biais proviennent notamment du fait que pour certaines catégories de candidats, les algorithmes ne sont pas assez entraînés avec des données, ou alors ceux qui les implémentent reproduisent les biais dans les codes, sans même nécessairement faire exprès. En 2018, Amazon avait par exemple arrêté un tel outil, qui discriminait de nombreuses candidates.

Ces types de système vont cependant prendre de plus en plus d’ampleur sur le marché du travail. HBR suggère alors qu’il est important de les rendre plus compréhensibles, plus transparents, et que donner du feedback aux candidats (perdus devant ces robots) serait également une option que ces derniers apprécieraient. Des mesures d’appui et de soutien, comme des vidéos de candidats qui ont réussi, ou d’autres outils, sont aussi une piste suggérée.

Plus