Principaux renseignements
- Les modèles d’IA peuvent analyser l’historique des conversations pour prédire les traits de personnalité avec une précision pouvant atteindre 61 pour cent.
- Plus l’historique des conversations est long, plus l’IA est capable de prédire avec précision les traits de personnalité.
- Cette technologie soulève des inquiétudes quant à une utilisation abusive potentielle à des fins de manipulation et de désinformation si les données personnelles tombaient entre de mauvaises mains.
Une étude récente de l’ETH Zurich a révélé le potentiel de l’intelligence artificielle pour prédire les traits de personnalité à partir de l’historique des conversations. Les chercheurs ont collecté plus de 62 000 conversations auprès de 668 utilisateurs de ChatGPT aux États-Unis et au Royaume-Uni. Ils ont ensuite entraîné un modèle d’IA à identifier cinq traits de personnalité clés connus sous le nom de « Big Five » : l’amabilité, la conscience, la stabilité émotionnelle, l’extraversion et l’ouverture d’esprit.
Précision du modèle d’IA
Afin d’évaluer la précision du modèle d’IA, les participants ont également passé un test psychologique standard visant à déterminer leurs traits de personnalité dominants. Les résultats ont montré que l’IA pouvait prédire ces traits avec une précision pouvant atteindre 61 pour cent. Il est à noter que le modèle excellait dans la prédiction de l’amabilité et de la stabilité émotionnelle, mais peinait à prédire la conscience.
De plus, l’étude a révélé que la capacité prédictive de l’IA augmentait avec la longueur de l’historique de conversation analysé. Cela suggère que les personnes qui interagissent fréquemment avec l’IA sont plus susceptibles de voir leur personnalité identifiée.
Atténuer les risques
Bien que les risques immédiats pour les individus soient considérés comme minimes, les chercheurs mettent en garde contre les implications potentielles à grande échelle si les données de personnalité tombaient entre de mauvaises mains. Ils s’inquiètent du fait que ces données pourraient être exploitées à des fins de manipulation, alimentant potentiellement des campagnes de désinformation et de propagande politique.
À la lumière de ces résultats, les chercheurs visent à développer des outils permettant d’atténuer le risque de partage excessif d’informations personnelles avec l’IA. Une solution proposée consiste en un système capable de supprimer automatiquement les détails permettant d’identifier les utilisateurs dans les interactions de chat. (fc)
Suivez également Business AM sur Google Actualités
Si vous souhaitez accéder à tous les articles, abonnez-vous ici !

