Les principaux assistants d’IA dénaturent le contenu de l’actualité, selon une étude


Les principaux assistants en IA dénaturent le contenu de l’actualité dans près de la moitié de leurs réponses, selon une nouvelle étude publiée mercredi par l’Union européenne de radiodiffusion (UER) et la BBC.

L’étude internationale a étudié 3 000 réponses aux questions sur l’actualité des principaux assistants d’intelligence artificielle, des applications logicielles qui utilisent l’IA pour comprendre les commandes en langage naturel afin d’effectuer des tâches pour un utilisateur.

Il a évalué les assistants d’IA dans 14 langues pour leur exactitude, leur source d’approvisionnement et leur capacité à distinguer les opinions des faits, notamment ChatGPT d’OpenAI, Copilot de Microsoft, Gemini et Perplexity de Google.

Dans l’ensemble, 45 % des réponses étudiées par l’IA contenaient au moins un problème important, et 81 % d’entre elles rencontraient une certaine forme de problème, selon l’étude.

Selon le Digital News Report 2025 de l’Institut Reuters, environ sept pour cent de tous les consommateurs d’informations en ligne et 15 pour cent des moins de 25 ans utilisent des assistants IA pour obtenir leurs informations.

Reuters a pris contact avec les entreprises pour solliciter leurs commentaires sur les conclusions.

Les assistants IA tels que Gemini, ChatGPT, Perplexity et Copilot contenaient au moins un problème près de la moitié du temps où ils étaient interrogés sur l’actualité. (Dado Ruvic/Illustration/Reuters)

Les entreprises disent vouloir s’améliorer

Gemini, l’assistant IA de Google, a déclaré précédemment sur son site Web qu’il appréciait les commentaires afin de pouvoir continuer à améliorer la plate-forme et la rendre plus utile aux utilisateurs.

OpenAI et Microsoft ont déjà déclaré que les hallucinations – lorsqu’un modèle d’IA génère des informations incorrectes ou trompeuses, souvent en raison de facteurs tels que des données insuffisantes – sont un problème qu’ils cherchent à résoudre.

Perplexity indique sur son site Internet que l’un de ses modes « Recherche approfondie » affiche une précision de 93,9 % en termes de factualité.

L’étude a porté sur 3 000 réponses d’entreprises, dont ChatGPT. (Dado Ruvic/Illustration/Reuters)

Les assistants IA commettent fréquemment des erreurs de sourcing

Selon l’étude, un tiers des réponses des assistants IA ont montré de graves erreurs de sourcing telles qu’une attribution manquante, trompeuse ou incorrecte.

Environ 72 pour cent des réponses fournies par Gemini, l’assistant IA de Google, présentaient d’importants problèmes d’approvisionnement, contre moins de 25 pour cent pour tous les autres assistants, selon le rapport.

Des problèmes d’exactitude ont été constatés dans 20 % des réponses de tous les assistants IA étudiés, y compris des informations obsolètes, indique le rapport.

REGARDER | Pourquoi les agences de presse canadiennes poursuivent ChatGPT :

Les organismes de presse canadiens, dont CBC, poursuivent le créateur de ChatGPT

CBC/Radio-Canada, Postmedia, Metroland, le Toronto Star, le Globe and Mail et La Presse Canadienne ont lancé une poursuite conjointe contre le créateur de ChatGPT, OpenAI, pour avoir utilisé du contenu d’actualité pour entraîner son système d’intelligence artificielle générative ChatGPT. Les agences de presse affirment qu’OpenAI viole le droit d’auteur en « supprimant le contenu » de leurs sites Web.

Les exemples cités par l’étude incluent Gemini indiquant de manière incorrecte des modifications apportées à une loi sur les vapes jetables, et ChatGPT signalant que le pape François est le pape actuel plusieurs mois après sa mort.

Vingt-deux médias de service public de 18 pays, dont CBC et Radio-Canada, ainsi que d’autres de France, d’Allemagne, d’Espagne, d’Ukraine, de Grande-Bretagne et des États-Unis, ont participé à l’étude.

Alors que les assistants IA remplacent de plus en plus les moteurs de recherche traditionnels pour l’information, la confiance du public pourrait être ébranlée, a déclaré l’UER.

“Quand les gens ne savent pas à quoi faire confiance, ils finissent par ne faire confiance à rien du tout, ce qui peut décourager la participation démocratique”, a déclaré le directeur des médias de l’UER, Jean Philip De Tender, dans un communiqué.

Le rapport de l’UER exhorte les sociétés d’IA à améliorer la manière dont leurs assistants d’IA répondent aux requêtes liées à l’actualité et à être plus responsables, citant l’exemple de la manière dont les agences de presse elles-mêmes disposent de « processus robustes pour identifier, reconnaître et corriger » les erreurs.

“Il est important de s’assurer que la même responsabilité existe pour les assistants IA”, a-t-il déclaré.

Related posts

Les gouvernements du monde entier omettent le projet d’élimination progressive des combustibles fossiles de l’accord de compromis de la COP30

Plus de 300 écoliers nigérians enlevés par des hommes armés

Un avis aux voyageurs canadien utilisé pour des attaques politiques contre le président, déclare un législateur mexicain