Vos confidences à ChatGPT pourraient bien se retourner contre vous

On demande tout et n’importe quoi aux IA génératives qui sont en train de se tailler une place durable dans nos vies. Quitte à potentiellement, s’en mordre les doigts. Car ces outils ne sont pas là pour faire preuve d’empathie ni pour respecter vos petits secrets.

Au début de l’engouement pour les IA génératives, une affaire avait fait grand bruit : le suicide d’un Belge, apparemment incité par le chatbot à « rejoindre le paradis » malgré ses tendances dépressives. Une exception, sans doute. Mais qui pourrait aussi être le premier signe d’une longue série de malheurs bien humains provoqués par le robot.

Des confidences que ChatGPT n’oubliera pas

C’est du moins ce que prédit Mike Wooldridge, professeur d’IA à l’Université d’Oxford, auprès de The Guardian. Celui-ci estime que partager des informations privées ou avoir des discussions intimes avec un chatbot serait « extrêmement imprudent. » Et ce par la nature même du chatbot.

  • N’oublions pas que ChatGPT et les autres IA comparables fonctionnent par l’apprentissage – quand ce n’est pas le pillage – de données d’origine humaine. Tout ce que nous avons mis en ligne, textes, photos, ou encore dessins, est allègrement consulté et répertorié par l’IA en guise d’illustration pour ce qu’elle copie. Y compris ce que vous y tapez vous-même.
  • Toutes vos questions, vos affirmations, qui peuvent trahir vos croyances ou vos sentiments – pas toujours avouables – se trouvent enregistrés et labellisés dans les échanges avec l’IA à côté de ce qu’elle sait de vous. Comme votre psy en fait, mais la déontologie en moins.
  • Non seulement il est presque impossible de récupérer vos données une fois qu’elles sont entrées dans le système, mais vous ne savez pas à quoi elles serviront. C’est déjà inquiétant par principe, mais si en plus vous lui confiez vos problèmes professionnels, vos angoisses, vos ennuis de santé ou vos opinions, ça revient un peu à jeter votre journal intime à la mer avec une balise GPS de qualité militaire.

« Vous devriez supposer que tout ce que vous tapez dans ChatGPT va être directement intégré dans les futures versions de ChatGPT. Et si, après réflexion, vous décidez que vous avez révélé trop de choses à ChatGPT, les rétractations ne sont pas vraiment une option. »

Mike Wooldridge

Des mensonges pour mieux vous séduire

Wooldridge va initier un cycle de conférence sur ce que les IA peuvent, et surtout ne peuvent pas faire. Et contrairement à ce qu’on pourrait imaginer de prime abord de la part d’une machine, elle ne vous répond pas forcément une vérité objective.

« L’IA n’a pas d’empathie. Elle n’a pas de sympathie. Cela n’est absolument pas ce que fait la technologie et, de manière cruciale, elle n’a jamais rien vécu. La technologie est essentiellement conçue pour essayer de vous dire ce que vous voulez entendre – c’est littéralement tout ce qu’elle fait. »

Mike Wooldridge

On est au-delà de l’erreur factuelle, alors que ChatGPT en commet encore beaucoup. Selon le chercheur britannique, l’IA n’hésitera pas à vous mentir à l’occasion. N’oublions pas qu’il s’agit là d’un outil que l’on vous vend. Il doit vous plaire.

  • C’est d’ailleurs exactement ce qu’on reprochait aux réseaux sociaux « traditionnels » comme Facebook. Leurs algorithmes sont entrainés à trouver du contenu supposé vous plaire en fonction de votre activité en ligne.
  • Si vous laissez transparaitre quels résultats vous plaisent le mieux dans vos questions, nul doute qu’un chatbot va vous les fournir en priorité. De quoi aisément vous enfermer dans une spirale de confirmation qui flatte vos opinions politiques ou philosophiques. Ou vos névroses ; c’est peut-être ce qui est arrivé à notre infortuné compatriote que nous évoquions plus haut.
Plus