Dans un contexte où les technologies d’intelligence artificielle (IA) prennent une place de plus en plus prépondérante dans la diffusion de l’information, la BBC a récemment mené une enquête approfondie sur la fiabilité de quatre grands assistants IA : ChatGPT d’OpenAI, Copilot de Microsoft, Gemini de Google et Perplexity AI. Les résultats sont préoccupants et soulèvent des questions cruciales sur l’exactitude des résumés d’actualités générés par ces outils.
Des inexactitudes alarmantes
L’enquête a révélé que 51 % des résumés d’actualités produits par ces chatbots contenaient des inexactitudes. Parmi ces erreurs, 19 % étaient des fautes factuelles avérées, ce qui remet en question la capacité de ces technologies à fournir une information fiable et précise. En particulier, Gemini de Google a été pointé du doigt, avec 46 % de ses réponses jugées problématiques.
Parmi les erreurs identifiées, plusieurs cas illustrent les limites des chatbots IA :
– Erreurs factuelles : Certains résumés affirmaient que des personnalités politiques étaient toujours en fonction alors qu’elles avaient déjà quitté leurs postes.
– Confusion entre faits et opinions : Les chatbots ont parfois mélangé des déclarations factuelles avec des opinions, rendant difficile la distinction entre les deux.
– Mélange de contenus récents et d’archives : Cela a entraîné une narration brouillée, où des événements passés étaient présentés comme récents.
– Modifications ou omissions de citations : Des citations provenant de la BBC ont été altérées ou omises, compromettant ainsi l’intégrité de l’information.
– Déformation d’informations sur des sujets sensibles : Les chatbots ont également été critiqués pour leur traitement inexact de sujets géopolitiques délicats.
Face à ces résultats préoccupants, les entreprises technologiques impliquées reconnaissent la nécessité d’améliorations. OpenAI, par exemple, a déclaré travailler avec ses partenaires pour perfectionner l’exactitude des citations et la cohérence des résumés générés par son IA.
Deborah Turness, directrice générale de BBC News, a souligné l’importance d’une collaboration étroite entre les médias, les régulateurs et les acteurs technologiques pour garantir une information précise. Elle a appelé à une réflexion collective sur la manière dont les technologies peuvent être utilisées pour soutenir le journalisme plutôt que de le compromettre.
Pete Archer, directeur du programme Générative AI à la BBC, a également insisté sur la nécessité pour les éditeurs de reprendre le contrôle de leurs contenus. Il a plaidé pour plus de transparence de la part des entreprises technologiques afin d’assurer une meilleure qualité d’information.
Cette enquête menée par la BBC met en exergue les défis auxquels sont confrontées les technologies d’intelligence artificielle dans le domaine de l’information. Alors que ces outils offrent un potentiel prometteur pour faciliter l’accès à l’actualité, il est impératif qu’ils soient perfectionnés pour garantir leur fiabilité. La responsabilité incombe non seulement aux entreprises technologiques mais aussi aux médias et aux régulateurs pour travailler ensemble afin d’assurer que l’information diffusée soit précise et digne de confiance.