Près de la moitié des chatbots d’IA fournissent des réponses erronées aux questions liées à l’actualité


Principaux renseignements

  • Près de la moitié des chatbots d’IA les plus populaires ont produit des erreurs factuelles ou des problèmes d’origine lorsqu’ils ont répondu à des questions liées à l’actualité.
  • Un problème courant était l’omission ou la présentation erronée de citations, et certains chatbots ont même généré des liens vers de fausses nouvelles.
  • Ces résultats ont suscité des inquiétudes quant à la protection de l’intégrité journalistique et au contrôle de l’accès aux données pour la formation à l’IA.

Une enquête récente menée par une coalition de 22 médias publics, sous la houlette de la chaîne norvégienne NRK, a révélé des inexactitudes troublantes dans les réponses générées par des assistants IA populaires tels que ChatGPT, Copilot, Perplexity et Gemini. L’étude a révélé que près de la moitié de ces outils alimentés par l’IA produisaient des erreurs factuelles significatives ou des problèmes d’origine lorsqu’ils répondaient à des questions liées à l’actualité.

Le problème le plus fréquent était l’omission ou la présentation erronée de citations, qui concernait 31 pour cent des réponses. Par ailleurs, 20 pour cent des réponses contenaient des informations manifestement fausses, notamment des dates, des noms et des descriptions d’événements incorrects. Dans certains cas, les chatbots d’IA ont même fabriqué de faux liens d’actualité, imitant des URL légitimes qui aboutissaient finalement à des pages d’erreur.

Sauvegarde de l’intégrité journalistique

Ces résultats ont suscité de vives inquiétudes parmi les organisations de médias. Le directeur de la technologie de NRK, Pal Nedregotten, a exprimé son appréhension en déclarant que les résultats n’inspiraient pas confiance dans le relâchement du contrôle de l’accès aux données pour ces outils d’IA. En conséquence, NRK a bloqué de manière permanente le scraping du contenu de son site web afin de préserver son intégrité journalistique et ses contenus protégés par le droit d’auteur.

L’enquête s’est inspirée d’une expérience précédente menée par la BBC. Toutes les organisations participantes ont posé 30 questions standardisées liées à l’actualité aux quatre assistants d’intelligence artificielle. Un panel de journalistes a ensuite évalué les réponses sur la base de cinq critères clés : exactitude, source, différenciation entre faits et opinions, neutralité et pertinence contextuelle.

Les défis permanents de l’IA

L’étude a mis en évidence les défis permanents auxquels sont confrontés les outils d’IA largement utilisés pour traiter de manière responsable les contenus d’information. La vérification des informations et l’attribution précise des sources restent des obstacles importants pour ces technologies. (jv)

Suivez également Business AM sur Google Actualités

Si vous souhaitez accéder à tous les articles, abonnez-vous ici!

Plus