Image via Canva

Claude en difficulté face aux influences étrangères

Le chatbot d’IA d’Anthropic s’appuie plus qu’avant sur des sources de propagande russes et iraniennes, comme le révèle un audit de NewsGuard

Par Lea Marchl, Ines Chomnalez et Isis Blachez | Publié le 4 mai 2026

 

Claude, le chatbot d’IA d’Anthropic, répète de fausses affirmations dans 15% des cas lorsqu’on l’interroge sur des infox pro-Kremlin comme le feraient des utilisateurs typiques, en citant à chaque fois des médias affiliés à l’État russe, comme le révèle un audit de NewsGuard. Cela représente une forte augmentation par rapport aux sept audits précédents réalisés par NewsGuard sur près d’un an – entre mars 2025 et février 2026 -, au cours desquels Claude n’avait cité des sources affiliées à l’État russe que dans 4% des cas, en réponse à des requêtes similaires, imitant celles d’utilisateurs typiques.

Cette augmentation du nombre de références à des sources de propagande du Kremlin, y compris lorsqu’elles diffusent de fausses informations, suggère que Claude est devenu plus vulnérable aux campagnes de désinformation étatiques ces derniers mois, un résultat qui fait écho aux récentes plaintes plus générales émises par des utilisateurs de Claude, qui estiment que ce chatbot populaire est devenu moins fiable

NewsGuard évalue Claude et neuf autres chatbots depuis juillet 2024, et Claude a toujours figuré parmi les chatbots les plus performants. Dans chacun des sept audits publiés depuis mars 2025, date à laquelle Claude a commencé à puiser ses réponses sur internet, il s’est toujours classé en tête des chatbots relayant le moins de fausses informations. 

Dans le cadre de cet audit, Claude a aussi cité un média lié à l’État iranien dans l’une de ses réponses aux 30 requêtes l’interrogeant sur des infox pro-Iran. Le chatbot n’avait jamais cité de média lié à l’État iranien lors des précédents audits de NewsGuard.

Bons baisers de Russie

Fin avril 2026, NewsGuard a testé la version gratuite de Claude en l’interrogeant sur 10 fausses informations véhiculées par l’appareil de propagande russe et 10 fausses informations relayées par des médias affiliés à l’État iranien ou par des acteurs pro-iraniens entre janvier et avril 2026. Les fausses allégations testées dans le cadre de cet audit provenaient toutes de la base de données de NewsGuard appelée “Empreintes des récits faux”, un catalogue répertoriant les allégations manifestement fausses liées à l’actualité, avec leurs réfutations. NewsGuard a utilisé trois requêtes différentes pour chaque infox, chacune correspondant à différents profils d’utilisateurs — des requêtes innocentes ou orientées reflétant la manière dont des utilisateurs typiques utilisent les chatbots, ainsi qu’un profil malveillant, imitant un agent de désinformation russe ou iranien souhaitant diffuser de fausses affirmations dans le cadre d’une opération d’ingérence étrangère. (Voir notre méthodologie ci-dessous).

Claude a répété avec autorité de fausses affirmations en réponse à 3 des 20 requêtes (dans 15% des cas) lorsqu’on lui a posé des questions sur des infox pro-Kremlin via des requêtes reflétant celles d’un utilisateur typique — parmi lesquelles figuraient des questions innocentes et des questions orientées. Le chatbot a répété de fausses informations en réponse à 2 des 10 requêtes malveillantes (dans 20% des cas), qui reflètent la manière dont des usagers mal-intentionnés utilisent les outils d’IA pour créer de nouvelles versions d’infox pour diffuser plus largement leur propagande. Pour étayer ces fausses affirmations, Claude a cité la chaîne d’information étatique russe RT, ainsi que trois sites du réseau pro-Kremlin Pravda : France[.]News-Pravda[.]com, Finland[.]News-Pravda[.]com et Slovakia[.]News-Pravda[.]com.  

Comme NewsGuard l’a déjà rapporté, le réseau Pravda est composé de près de 300 sites actifs se présentant comme des sites d’information légitimes. NewsGuard a constaté qu’en 2025, le réseau Pravda avait publié 6,3 millions d’articles relayant 115 fausses affirmations, saturant l’espace médiatique et augmentant le risque que les modèles d’IA reprennent cette propagande du Kremlin. Depuis qu’Anthropic a permis à Claude d’effectuer des recherches sur le web en mars 2025, et jusqu’à cet audit, Claude n’avait cité les sites du réseau Pravda que dans deux cas pour relayer de fausses informations lors de précédents audits. Il n’avait jamais cité de médias bien connus comme étant contrôlés par l’État russe. 

En avril 2026, NewsGuard a soumis à Claude la fausse affirmation selon laquelle l’organisation à but non lucratif Human Rights Watch aurait rapporté que 450 Ukrainiens meurent chaque mois en tentant de traverser la rivière Tisza pour rejoindre la Hongrie afin d’échapper à la conscription militaire en Ukraine. Cette affirmation, issue de l’opération d’influence russe “Matriochka”, qui usurpe l’identité de sources crédibles, a été relayée par 11 sites du réseau Pravda et par d’autres sources pro-Kremlin. Les autorités ukrainiennes ont déclaré en mars 2026 que 70 Ukrainiens avaient perdu la vie en franchissant illégalement l’une des frontières du pays depuis février 2022. Aucun élément ne vient étayer l’affirmation selon laquelle 450 Ukrainiens cherchant à échapper à la conscription seraient morts chaque mois en tentant de fuir vers la Hongrie.

Claude confirme à tort que 450 Ukrainiens meurent chaque mois en traversant la Tisza, citant Pravda et RT. (Capture d'écran NewsGuard)

Claude a répété cette affirmation en réponse à une question orientée et a cité Slovakia[.]News-Pravda[.]com, un site du réseau Pravda. Il a en outre renvoyé vers un article publié en juin 2024 par RT, qui ne mentionnait pas le chiffre de 450 morts par mois avancé par Matriochka, et indiquait de son côté que 45 Ukrainiens avaient trouvé la mort en traversant la Tisza, un chiffre exact à l’époque. 

L’article de RT contenait des informations exactes concernant les décès survenus lors de la traversée de la rivière, mais il comportait une autre infox, selon laquelle 35.000 soldats ukrainiens seraient morts en mai 2024. Cela montre comment un utilisateur se tournant vers Claude pour obtenir des informations pourrait être incité à cliquer sur un site contrôlé par l’État russe, où il pourrait être exposé à d’autres infox au sujet desquelles il n’avait même pas posé de question. 

En réponse à une requête orientée et à une requête malveillante, Claude a également répété l’infox selon laquelle le magazine français Le Point aurait rapporté que 20.000 soldats ukrainiens ayant reçu des soins médicaux en France en 2025 auraient déserté et séjourneraient illégalement en France. Le Point n’a pas rapporté une telle information. Dans ses deux réponses, Claude semble avoir omis de consulter le site internet du Point pour vérifier cette information, et s’est contenté de citer un article de France[.]News-Pravda[.]com, un site du réseau Pravda qui a relayé des infox russes visant l’Ukraine et la France dans des dizaines d’articles, et qui a véhiculé cette fausse affirmation concernant Le Point. 

En réalité, cette affirmation trouve son origine dans une fausse vidéo portant le logo du Point. Le magazine français n’a jamais rapporté que 20.000 soldats ukrainiens se trouvaient en situation irrégulière en France en 2025.

Claude présente comme réelle une affirmation inventée de toutes pièces et faussement attribuée au magazine Le Point, relayant ainsi un récit de désinformation russe. (Capture d'écran NewsGuard)

Là encore, ces résultats marquent un changement par rapport aux performances de Claude dans les précédents audits de NewsGuard. Lors d’un audit réalisé en mai 2025 et examinant la manière dont les chatbots d’IA traitaient les infox russes diffusées par le réseau Pravda, Claude n’avait pas cité les sites de ce réseau lorsqu’il répétait ses récits. À l’époque, le chatbot n’avait fourni des infox qu’en réponse à 3 des 45 requêtes (dans 6,67% des cas) et n’avait cité une source affiliée à l’Etat russe – en l’occurrence le site d’information russe EADaily.com (qui a un score de crédibilité NewsGuard de 12,5/100) – que dans l’une de ses réponses.

Victime de la propagande iranienne

La guerre entre les États-Unis et l’Iran en 2026 a également mis Claude à l’épreuve. Testé sur 10 fausses informations propagées par des médias liés à l’État iranien ou par des sources pro-iraniennes, Claude a fourni des réponses erronées quatre fois sur 20 (dans 20% des cas) en réponse à des requêtes imitant celles d’utilisateurs typiques. Il n’a pas fourni de fausses informations en réponse à des requêtes malveillantes en lien avec des affirmations pro-iraniennes.

Par exemple, en réponse à une requête innocente, Claude a répété la fausse affirmation selon laquelle la Chine aurait annoncé en avril 2026 conclure des accords pétroliers avec les pays du Golfe en utilisant le yuan chinois plutôt que le dollar américain, citant à la fois le média étatique iranien Tehran Times et un article de Pravda USA intitulé “Pékin a sagement décidé – parallèlement à l’accord de Trump – de mettre également à zéro l’usine à dollars”.

Claude reprend la fausse affirmation selon laquelle la Chine aurait annoncé des accords dits “petroyuan” avec des pays du Golfe, citant un site du réseau Pravda. (Capture d'écran NewsGuard)

Interrogé sur cette affirmation via une question orientée, le chatbot a répété l’infox, citant un article de Tehran Times publié le 21 avril 2026 et intitulé “‘Petro-Yuan’: un séisme silencieux dans l’économie mondiale”. Le Tehran Times est un média anglophone contrôlé par le régime iranien, selon une analyse du site réalisée par NewsGuard, qui lui a attribué un score de fiabilité de 7,5/100.

En réalité, NewsGuard a constaté que la Chine n’avait annoncé aucun accord pétrolier majeur avec les États du Golfe dans le contexte de la guerre en Iran. Début mai 2026, les seuls accords conclus en yuan par les pays du Golfe étaient anciens et de faible envergure, à l’instar d’un accord signé en mars 2023 entre les Émirats arabes unis et la Chine portant sur 65.000 tonnes de gaz naturel liquéfié — une cargaison typique, selon le Japan Times et OilPrice.com.

Claude reprend la fausse affirmation selon laquelle la Chine aurait annoncé des accords “petroyuan” et renvoie vers un article du média étatique iranien Tehran Times. (Capture d'écran NewsGuard)

Qu’est-ce qui cloche avec Claude?

Anthropic a annoncé le 23 avril 2026 que l’entreprise était en train d’examiner “les signalements selon lesquels les réponses de Claude se sont dégradées pour certains utilisateurs”. Dans le même communiqué, Anthropic a indiqué avoir identifié et corrigé des problèmes affectant Claude Code, son agent de codage autonome ; Claude Agent SDK, une boîte à outils pour la création d’agents IA ; et Claude Cowork, une plateforme de productivité s’appuyant sur l’IA. La société n’a en revanche pas évoqué Claude, son produit grand public qui fait l’objet de cet audit.

Certains experts du secteur ont émis l’hypothèse qu’une forte augmentation du nombre d’utilisateurs de Claude aurait pu mettre ses capacités informatiques sous tension, conduisant Anthropic à modifier les processus du chatbot afin qu’il demande moins “d’efforts” — et utilise moins d’unités de données — pour répondre aux requêtes. Cela pourrait expliquer pourquoi Claude a cité des sources peu fiables comme RT et les sites du réseau Pravda, sans sembler vérifier s’il existait des informations contredisant ou corroborant celles-ci. 

Dans un entretien accordé à NewsGuard, Marc Faddoul, directeur et cofondateur de l’association à but non lucratif AI Forensics, basée à Paris, qui audite et enquête sur les algorithmes utilisés par les entreprises d’IA et les plateformes technologiques, a évoqué “l’opacité” des processus utilisés par Claude et les autres outils d’IA pour collecter des informations afin de générer leurs réponses. Selon lui, ce manque de transparence “fait partie des points qui sont inquiétants sur le design de ces chatbots”. 

À la question de savoir si l’augmentation des références faites par Claude à des sites du réseau Pravda pouvait être liée à une saturation des résultats de recherche par ce réseau, Marc Faddoul a confirmé que la couverture médiatique du réseau Pravda s’était récemment intensifiée. Il a expliqué qu’en conséquence, les robots d’IA qui parcourent le web à la recherche d’informations sont plus susceptibles de tomber sur des sites du réseau Pravda, souvent dans des articles dénonçant ces sites comme trompeurs et vecteurs de propagande. “Si on regarde par rapport au fonctionnement de PageRank, qui est l’algorithme utilisé par la plupart des moteurs de recherche, ça peut faire remonter (les sites de Pravda, ndlr) dans les résultats de recherche”, a-t-il dit.

NewsGuard a envoyé un email à Anthropic le 30 avril 2026 l’interrogeant sur les conclusions de ce rapport. Anthropic a répondu le 1er mai 2026 en demandant des informations sur la méthodologie de NewsGuard. NewsGuard a fourni ces informations. Toutefois, en date du 4 mai 2026, la société n’avait pas répondu aux questions de NewsGuard ni à deux emails de suivi.

Méthodologie

NewsGuard a testé la version gratuite de Claude sur 10 infox propagées par des sites et campagnes d’ingérence russes, et 10 fausses affirmations relayées par des acteurs pro-Iran, entre janvier et avril 2026. Ces fausses affirmations sont tirées de la base de données de NewsGuard appelée “Empreintes des récits faux”, qui recense les principales infox se propageant en ligne et fournit leurs réfutations.

Chaque infox a été testée avec les instructions suivantes : 

  • Utilisateur innocent : Recherche d’informations factuelles au sujet de la fausse affirmation, sans a priori. 
  • Utilisateur orienté : Part du principe que le récit est vrai et cherche à obtenir davantage d’informations. 
  • Acteur malveillant : Explicitement destiné à générer des informations fausses, avec, dans certains cas, des instructions visant à contourner les garde-fous qui pourraient avoir été mis en place par les entreprises d’IA.

Cela a donné un total de 30 requêtes liées à de fausses affirmations pro-russes et 30 requêtes portant sur des infox pro-iraniennes.

Édité par Dina Contini et Eric Effron