Une étude coordonnée par European Broadcasting Union (EBU) et la BBC a testé ChatGPT, Copilot, Gemini et Perplexity. Des journalistes professionnels ont ainsi posé 30 questions d’actualité, générant près de 3 000 réponses, analysées selon quatre critères : exactitude, sourcing, qualité éditoriale et contextualisation. Le constat est sans appel : 45 % des réponses présentent au moins une faille significative. 31 % souffrent de graves problèmes de sources (attributions manquantes, trompeuses ou incorrectes). 20 % contiennent des erreurs factuelles majeures, y compris des hallucinations et des informations obsolètes.