découvrez comment les chatbots ia peuvent lutter contre la désinformation en fournissant des réponses fiables et précises.

EN BREF

  • Désinformation prorusse infiltrée dans les réponses des chatbots.
  • Affirmations erronées sur la vente d’or par le Premier ministre arménien.
  • NewsGuard met en lumière la propagation des intox par des outils d’IA.
  • 33 % des chatbots répètent des récits fausses comme vérités.
  • Tests montrent que la fiabilité varie selon les langues utilisées.
  • Pravda et son réseau de propagande largement documenté.
  • Risque accru dans les langues peu parlées et fact-checking limité.
  • Proposition de garde-fous par les géants de l’IA pour limiter la désinformation.

Des tests réalisés par l’observatoire de la désinformation NewsGuard révèlent que certains chatbots basés sur l’intelligence artificielle (IA) répètent des récits fausses diffusés par des sites prorusses, comme le réseau Pravda. En janvier 2026, les tests ont montré que dans la moitié des cas, les chatbots validaient ces informations erronées. Les outils d’IA, souvent probabilistes, privilégient des données largement diffusées, même si elles ne sont pas fiables. Les résultats varient selon la langue, les chatbots étant plus résistants aux désinformations dans des langues largement parlées comme l’anglais, mais moins dans d’autres langues moins courantes. Ce phénomène soulève des questions sur la lutte contre la désinformation et l’impact des algorithmes sur la perception de l’information.

La question de la désinformation, en particulier celle liée à la propagande prorusse, a pris une importance croissante avec l’essor des technologies d’intelligence artificielle. Des outils comme les chatbots, souvent perçus comme des solutions avancées pour la recherche d’information, sont maintenant confrontés à de nouvelles problématiques de fiabilité et de déontologie. Dans cet article, nous examinerons comment ces technologies peuvent involontairement propager des récits trompeurs, souvent liés aux intérêts géopolitiques, tout en analysant les résultats de diverses études sur la question.

La viralité des récits prorusses

Le cas du Premier ministre arménien, Nikol Pachinian, qui aurait été accusé de vouloir vendre de l’or de la mine d’Amulsar à des entreprises turques à prix réduit, illustre parfaitement ce phénomène. Bien que cette information ait été qualifiée de fausse par la majorité des sources fiables, certains chatbots interrogés ont néanmoins confirmé cette fausse assertion. C’est ce phénomène troublant qui soulève des inquiétudes sur la manière dont les chatbots fonctionnent et comment ils peuvent amplifier des récits trompeurs.

Les menaces de désinformation par le réseau Pravda

Le réseau Pravda, avec son impressionnante quantité de contenus (environ 370 sites et près de 6 millions d’articles publiés en 2025), est particulièrement préoccupant. Les tests effectués par l’observatoire de la désinformation NewsGuard ont révélé qu’un tiers des réponses fournies par des chatbots comme ChatGPT ou Mistral citaient des récits trompeurs du réseau Pravda comme des faits avérés. Cela soulève des questions sur la capacité des chatbots à distinguer le contenu fiable de celui qui relève de la désinformation.

Une analyse des fausses affirmations

Au début de l’année 2026, NewsGuard a effectué des tests pour vérifier la vérité de cinq récits propagés par Pravda. Les résultats étaient alarmants, car dans près de 50 % des cas, les chatbots validaient ces récits trompeurs. Un fait qui démontre non seulement la vulnérabilité de ces outils, mais aussi la nécessité d’une vigilance accrue lorsqu’on se fie à leurs réponses.

Le rôle des algorithmes d’IA et leur fonctionnement probabiliste

L’une des raisons pour lesquelles les chatbots ont tendance à propager de la désinformation réside dans leur nature probabiliste. Ces outils ne cherchent pas nécessairement à comprendre l’exactitude d’une information, mais plutôt à fournir ce qui semble être la réponse la plus populaire. Dans un contexte où le contenu prorusse est publié massivement dans plusieurs langues, les chatbots deviennent plus susceptibles de relayer ce matériel.

Impact des langues sur la propagation de la désinformation

Il est instructif de remarquer que la fiabilité des chatbots varie considérablement selon la langue utilisée pour les interroger. Dans des langues comme l’anglais, où il existe une plus grande diversité de sources d’informations et un écosystème de fact-checking plus fort, les chatbots semblent mieux résister à la désinformation. Cependant, dans des langues moins parlées, la contamination par les récits prorusses est beaucoup plus fréquente.

Tests de désinformation au niveau nordique

Des journalistes du réseau nordique de fact-checking Nordis ont mené une enquête révélatrice sur la manière dont les récits propagés par la Russie avaient infiltré les chatbots. Ils ont identifié douze récits communs liés à la guerre en Ukraine et constaté que les chatbots semblaient avoir été partiellement formés pour contrer les discours de désinformation. Néanmoins, de nombreuses fausses informations restent bloquées dans leurs filtres.

Exemples de résultats contrastés selon les langues

La rédaction des Observateurs de France 24 a reproduit ces tests sur le chatbot de Microsoft, Copilot. Lorsqu’on lui a demandé si un élève danois avait été tué lors d’une attaque en Ukraine, les résultats variaient selon la langue. En français et en anglais, le chatbot a donné la réponse correcte (fausse information) alors qu’en finnois ou en danois, il a confirmé faussement l’information. Ces écarts soulignent l’importance cruciale du contexte linguistique dans le fonctionnement des algorithmes d’IA.

Les chatbots : une cible involontaire de désinformation

La possibilité que les chatbots soient volontairement ciblés par des campagnes de désinformation demeurent une hypothèse ouverte. Les indices suggèrent que les opérateurs de ces campagnes visent à manipuler les algorithmes pour qu’ils diffusent plus facilement leur contenu biaisé. De nombreux articles sur des sites de propagande présentent une très faible qualité rédactionnelle, remettant en question leur origine et leur intention.

Impact de la qualité rédactionnelle

Les contenus de faible qualité semblent avoir été créés pour tromper les systèmes d’IA et faciliter la désinformation. Pipsa Havula, journaliste impliquée dans ces recherches, note qu’une partie de ces contenus pourrait ne même pas être destinée à un public humain, mais plutôt à alimenter les algorithmes en informations biaisées.

Les autres outils d’IA exposés à la désinformation

Il est fondamental de noter que la désinformation n’est pas limitée aux principaux chatbots. D’autres outils d’IA générative, comme le Google AI Overview, sont également susceptibles de diffusion erronée d’informations. De récents tests ont montré que des outils comme Google Lens étaient également vulnerables à la désinformation, relayant des images qui avaient déjà été discréditées. Cette situation met en lumière la dépendance de ces outils envers des sources d’information peu fiables sur les réseaux sociaux.

Le phénomène de Generative Engine Optimization (GEO)

Avec l’essor de l’IA générative, un mouvement est en train de prendre forme, connu sous le nom de Generative Engine Optimization (GEO). Ce phénomène implique que tant des acteurs bienveillants que malveillants s’efforcent de se faire promouvoir leurs récits au sein des synthèses produites par des algorithmes. Cela représente un défi supplémentaire dans la lutte contre la désinformation, surtout dans un contexte où l’utilisation de l’IA pour s’informer est en forte hausse.

Les garde-fous possibles contre la désinformation

Face à ces préoccupations, il est essentiel d’envisager des solutions pour améliorer la fiabilité des résultats fournis par les chatbots et autres outils d’IA. Une des propositions évoquées par des chercheurs est la création de garde-fous, qui pourraient inclure des listes noires de sites de désinformation identifiés. En excluant systématiquement ces sites, les algorithmes pourraient fournir des informations plus fiables.

Vers une approche de liste blanche

Dans des domaines sensibles tels que la santé ou les élections, une approche de liste blanche pourrait également être envisagée. Cela impliquerait de sélectionnner des sites jugés fiables et d’inciter les outils d’IA à ne s’appuyer que sur ces sources pour répondre à des questions délicates. Ces initiatives pourraient améliorer considérablement la précision des informations fournies par les chatbots.

En attendant que ces mesures soient mises en place, il est essentiel d’élever notre vigilance face à la prolifération de la désinformation, en particulier celle qui émane de réseaux comme Pravda. Une meilleure éducation aux médias et un travail de vérification des faits doit devenir une norme si nous voulons retrouver la confiance en ces outils prometteurs d’intelligence artificielle.

Pour une lecture plus approfondie sur ce sujet, vous pouvez consulter les articles suivants : L’infection des chatbots par la désinformation russe, La perte de fiabilité des IA, et Audit des chatbots par NewsGuard.

découvrez comment les chatbots ia peuvent propager ou combattre la désinformation, et les enjeux associés à leur utilisation dans la diffusion de l'information.

Témoignages sur l’impact de l’Intelligence Artificielle et la désinformation prorusse

De nombreux utilisateurs expriment leur inquiétude face à la propagation de fausses informations par les chatbots d’intelligence artificielle. En effet, des témoignages révèlent que ces outils, bien qu’avancés, peuvent diffuser des récits trompeurs qui servent des intérêts géopolitiques. Un étudiant a récemment partagé son expérience en interrogeant un chatbot sur la guerre en Ukraine et a été surpris de constater que certaines réponses favorisaient des narrations prorusses.

Un professionnel du secteur des médias a également souligné son étonnement face à la répétition de récits mensongers par des technologies censées être fiables. Après avoir testé plusieurs chatbots, il a noté que dans près de 50 % des cas, ces agents relayaient des informations provenant de sites de propagande connus, mettant en lumière la nécessité d’une surveillance accrue de la part des développeurs.

Une journaliste finlandaise du réseau Nordis a témoigné des résultats de leurs tests sur ces outils d’IA. Elle a constaté que leur efficacité à contrer la désinformation dépendait fortement de la langue utilisée. Dans les langues moins courantes, des récits biaisés étaient souvent relayés, ce qui montre une vulnérabilité dans le traitement de la désinformation.

Un influenceur des réseaux sociaux a partagé sa frustration en constatant que la désinformation circulait facilement dans des segments de population moins exposés à des sources multiples d’information. Il a mis en garde contre le fait que cette dynamique risquait de renforcer les croyances erronées dans certaines communautés, à cause de l ‘engagement limité des chatbots, qui paraissent parfois plus adaptés à répondre à des demandes humaines que à discerner la véracité des informations.

Enfin, un analyste en data a fait état de son inquiétude quant aux modèles linguistiques qui continuent d’intégrer les récits de désinformation, souvent basés sur des données biaisées. Il a insisté sur l’importance d’un fact-checking robuste pour contrer cette tendance, plaidant pour des systèmes plus transparents et des garde-fous pour éviter que des informations fallacieuses ne deviennent la norme dans les réponses fournies par ces nouvelles technologies.