ChatGPT, Grok, Perplexity... Quelles sont les IA génératives qui propagent le plus de «fake news» ?

ChatGPT, Grok, Perplexity... Quelles sont les IA génératives qui propagent le plus de «fake news» ?

Les IA échouent de plus en plus souvent à distinguer le vrai du faux, malgré des promesses de progrès en matière de fiabilité. Dongyu Xu / Tada Images - stock.adobe.com

«Le taux de fausses informations répétées par les chatbots d’IA a presque doublé en un an», révèle un audit des principaux outils. Même si certains s’en sortent mieux que d’autres.

Passer la publicité Passer la publicité

Gare à ne pas prendre pour argent comptant tout ce que nous répondent ChatGPT, Gemini, Grok et consorts. «Le taux de fausses informations répétées par les chatbots d’IA  a presque doublé en un an», souligne une récente étude de NewsGuard, start-up dédiée à l’évaluation de la fiabilité des sites d’information en ligne. Selon son audit des principales IA génératives, celles-ci ont diffusé des fausses informations dans 35% des cas en août 2025, contre 18% un an plus tôt. Le résultat est sans appel : les IA échouent de plus en plus souvent à distinguer le vrai du faux, malgré des promesses de progrès en matière de fiabilité.

Mais des différences se font jour entre les modèles d’IA du marché. Pour les comparer, NewsGuard a mesuré le pourcentage de réponses contenant de fausses informations. Résultat, Claude, d’Anthropic (10%), et Gemini, de Google (16,7%), sont les chatbots qui s’en sortent le mieux, tandis que Pi d’Inflection (56,7%) et Perplexity (46,7%) ferment la marche. ChatGPT, le plus utilisé, affiche un taux de désinformation de 40%. Paradoxalement, les efforts pour rendre les IA plus utiles — intégration du web, réponses contextualisées — semblent avoir affaibli leur fiabilité. Perplexity, par exemple, a chuté d’un score parfait de 0 % à 46,7% d’erreurs en un an. Le français Mistral, symbole européen de l’IA responsable, n’a enregistré aucun progrès (36,7% en 2024 comme en 2025) avec son IA Le Chat, et cite encore des sources placées sous sanctions européennes pour désinformation.

Passer la publicité

Sophistication croissante des opérations de désinformation

Selon cette étude, la hausse des «fake news» propagées par les chatbots IA s’explique en effet par un «compromis technique». Autrement dit, l’accès en temps réel à Internet a supprimé les «non-réponses» (de 31% à 0% en un an) et a ouvert la porte à un écosystème d’informations pollué. Plutôt que de reconnaître leurs limites, les modèles intègrent des données issues de sites douteux, de réseaux sociaux, ou de fermes à contenu, générées par IA et souvent conçus pour tromper ces mêmes outils. NewsGuard souligne la sophistication croissante des opérations de désinformation, en particulier russes, comme les réseaux Storm-1516 ou Pravda, qui inondent le web de contenus mensongers difficilement détectables.

L’étude révèle ainsi l’évolution des tactiques des désinformateurs. Face aux blocages de certains sites, les campagnes de désinformation s’appuient désormais sur des réseaux sociaux à faible engagement pour leurrer les modèles. Ainsi, Copilot (Microsoft), après avoir cessé de citer Pravda, s’est mis à reprendre ses messages sur le réseau social russe VK.

Comme le résume NewsGuard, ce n’est plus un simple problème d’«hallucinations» ponctuelles, mais une vulnérabilité systémique des «LLM» (grands modèles de langage) des IA génératives. Alors que l’IA s’impose comme outil de recherche et source d’information, son incapacité à filtrer la désinformation menace la qualité même du débat public. En novembre 2024, Jensen Huang, le PDG de Nvidia, avançait : «Nous devons arriver à un stade où la réponse que vous obtenez, vous lui faites largement confiance. (…) Je pense que nous sommes à plusieurs années d’y parvenir.»