Image Source: Alina Grubnyak via Unsplash

Suivi de la mésinformation facilitée par l'IA : 713 "sites d'actualité non fiables générés par l'IA" et les principales infox générées par les outils d'IA

NewsGuard a identifié à ce jour 713 sites d’information et d’actualité générés par l’IA et gérés avec peu voire pas de supervision humaine, et répertorie les faux récits générés par les outils d’intelligence artificielle

By  McKenzie Sadeghi , Lorenzo Arvanitis , Virginia Padovese , Giulia Pozzi , Sara Badilini , Chiara Vercellone , Madeline Roache , Macrina Wang , Jack Brewster Natalie Huet , Sam Howard , Andie Slomka , Leonie Pfaller , and Louise Vallee |

Dernière mise à jour : 20 février 2024

Qu’il s’agisse de médias non fiables générés par l’IA et fonctionnant avec peu ou pas de supervision humaine, ou d’images fabriquées par des générateurs d’images d’IA, le déploiement d’outils d’intelligence artificielle générative a été une aubaine pour les fermes de contenu et les colporteurs de mésinformation.

Ce centre de suivi de l’IA a pour but de mettre en lumière les façons dont l’IA générative a été déployée pour donner un coup d’accélérateur aux opérations de mésinformation et aux actualités non fiables. Le centre présente une sélection de rapports, d’analyses et de fact-checks produits par NewsGuard au sujet de l’intelligence artificielle.

À ce jour, l’équipe de NewsGuard a identifié 713 sites d’informations non fiables générées par l’IA, que nous appelons “UAINs” (pour “Unreliable AI-generated News sites” en anglais), couvrant 15 langues : l’arabe, l’allemand, le chinois, le tchèque, le néerlandais, l’anglais, le français, l’indonésien, l’italien, le portugais, l’espagnol, le tagalog, le coréen, le turc et le thaï.

Ces sites portent généralement des noms génériques, tels que iBusiness Day, Ireland Top News et Daily Time Update, qui ressemblent pour le lecteur à des sites d’actualité classiques. Cela masque le fait qu’ils fonctionnent avec peu ou pas de supervision humaine et publient des articles rédigés en grande partie ou entièrement par des robots – plutôt que de présenter des contenus créés et relus traditionnellement par des journalistes, sous supervision humaine. Ces sites ont produit des dizaines, voire, dans certains cas, des centaines d’articles génériques sur des sujets aussi variés que la politique, la technologie, le divertissement et les voyages. Ces articles contenaient parfois de fausses affirmations, telles que des infox sur la mort de célébrités, des événements fabriqués de toutes pièces et des articles présentant des événements anciens comme s’ils venaient de se produire.

Dans de nombreux cas, le modèle économique de ces sites repose sur la publicité programmatique – des publicités placées de manière algorithmique par les sociétés d’ad-tech sans se soucier de la nature ou de la qualité des sites. Par conséquent, des grandes marques soutiennent ces sites involontairement. Si les marques ne prennent pas de mesures pour exclure ces sites peu fiables, leurs publicités continueront d’apparaître sur ces types de sites, créant un avantage économique à en créer toujours plus, à grande échelle.

Les noms de domaine inclus dans ce centre de suivi remplissent les quatre critères suivants :

  1. Il existe des preuves évidentes qu’une part importante du contenu du site est produite par l’IA.
  2. Il y a de fortes raisons de penser que le contenu est publié sans contrôle humain notable. Par exemple, de nombreux articles peuvent contenir des messages d’erreur ou d’autres termes propres aux réponses des chatbots, ce qui indique que le contenu a été produit par des outils d’IA sans avoir été correctement édité. (Il est probable qu’aujourd’hui ou à l’avenir, de nombreux sites d’information utiliseront des outils d’IA mais déploieront également une supervision humaine efficace ; ils ne seront alors pas considérés comme des UAINs).
  3. Le site est présenté de telle sorte qu’un lecteur moyen pourrait supposer que son contenu est produit par des rédacteurs ou des humains, du fait de sa mise en page, d’un nom générique ou anodin, ou d’autres éléments typiques des sites d’actualité et d’information.
  4. Le site n’indique pas clairement que son contenu est produit par l’IA.

En plus des sites inclus dans ce centre de suivi, les analystes de NewsGuard ont identifié un site  géré par le gouvernement chinois qui s’appuie sur des textes générés par l’IA comme des sources d’autorité pour diffuser la fausse allégation selon laquelle les États-Unis possèderaient un laboratoire d’armes biologiques au Kazakhstan infectant des chameaux pour mettre en péril la population chinoise.

Les chercheurs, plateformes, annonceurs, agences gouvernementales ou autres institutions intéressées par la liste complète des domaines, ou qui souhaitent recevoir plus de détails sur nos services pour les entreprises d’IA génératives peuvent nous contacter ici. 

Vous trouverez ci-dessous une sélection des rapports et analyses de NewsGuard concernant l’IA : 

Vous trouverez ci-dessous une sélection des faux récits dont l’origine a pu être retracée à des outils d’intelligence artificielle, et que NewsGuard a identifiés et démentis dans son catalogue des Empreintes de la mésinformation (“Misinformation Fingerprints”):

MYTHE : Une photo montre une large explosion près du Pentagone

LES FAITS : Une image partagée par des utilisateurs de réseaux sociaux le 22 mai 2023, qui affirmaient à tort qu’elle montrait une explosion près de l’immeuble du Pentagone à Washington, a très certainement été créée par des outils d’intelligence artificielle, selon des experts du numérique. L’agence fédérale chargée de la protection du Pentagone, ainsi que les pompiers d’Arlington, en Virginie (États-Unis), ont confirmé plus tard dans la journée qu’un tel incident n’avait pas eu lieu. 

“Il n’y a eu AUCUNE explosion ou incident sur le site du Pentagone, ou aux alentours, et il n’y a aucun danger immédiat ou risques pour le public”, ont indiqué les pompiers d’Arlington et l’agence de protection du Pentagone dans un tweet conjoint du 22 mai 2023. 

La photo, qui montre un large nuage de fumée noire près de ce qui semble être un immeuble du gouvernement fédéral, a probablement été générée par des outils d’intelligence artificielle, selon des experts en analyse numérique. 

Nick Waters, du média Bellingcat, a remarqué dans un tweet du 22 mai 2023 que les barrières que l’on voit sur la photo de l’immeuble semblent se fondre les unes dans les autres, et qu’il n’y a aucune autre vidéo de témoins directs de cette explosion. 

Hany Farid, professeur d’informatique à l’Université de Californie, à Berkeley, a indiqué à The Associated Press le 22 mai 2023 que l’image présentait des incohérences caractéristiques des photos générées par IA, précisant : “En particulier, l’herbe et le goudron qui semblent se fondre l’un dans l’autre, la barrière est irrégulière, et il y a un étrange poteau noir qui sort de l’avant du trottoir, mais qui fait aussi partie de la barrière”. 

MYTHE : Un laboratoire géré par les États-Unis au Kazakhstan développe une arme biologique contre la Chine

LES FAITS : Une vidéo datée du 12 avril 2023, produite par le site d’État chinois China Daily, suggère sans fondement qu’un laboratoire au Kazakhstan est contrôlé par les États-Unis et qu’il effectue des recherches biologiques sur la transmission de virus du chameau à l’homme, dans l’intention de nuire à la Chine. La vidéo cite de prétendues réponses du chatbot d’IA ChatGPT pour étayer son allégation selon laquelle le laboratoire du Kazakhstan, appelé Central Reference Laboratory (CRL, “Laboratoire Central de Référence” en français), serait dirigé par les États-Unis. (Il semblerait que ce soit la première fois que les médias d’État chinois aient cité un chatbot comme faisant autorité sur un sujet d’actualité).

Toutefois, rien ne prouve que les États-Unis dirigent actuellement – ou aient jamais dirigé – le CRL, ni qu’ils mènent des recherches au Kazakhstan pour nuire à la Chine.

Les États-Unis ont aidé le Kazakhstan à créer le CRL dans le cadre de l’accord sur l’élimination des infrastructures d’armes de destruction massive (“Weapons of Mass Destruction Infrastructure Elimination Agreement”), selon une déclaration du Ministère des affaires étrangères kazakh datant de 2020. Cet accord vise à “(aider) le Kazakhstan à assurer un stockage sûr et sécurisé des matières fissiles et à détruire les anciens sites de stockage d’armes nucléaires et de propergols liquides”, selon le compte rendu d’une audition du Congrès américain en 2003 sur les programmes américains de coopération en matière de réduction des menaces et de non-prolifération.

Toutefois, contrairement à l’affirmation du China Daily selon laquelle les États-Unis dirigeraient ou financeraient directement le CRL, un communiqué du Ministère kazakh des affaires étrangères datant de 2020 indique que “le CRL appartient intégralement à la République du Kazakhstan et est actuellement financé uniquement par le budget de la République. L’ensemble du personnel est composé de spécialistes nationaux. Tout travail effectué par le CRL est contrôlé par les ministères de la santé, de l’éducation, des sciences, et de l’agriculture de la République du Kazakhstan. Son activité vise à garantir la sûreté et la sécurité biologiques au Kazakhstan, en menant des recherches fondamentales et appliquées. Nous déclarons en toute responsabilité qu’aucun développement d’armes biologiques n’est en cours au Kazakhstan et qu’aucune recherche n’est menée contre d’autres États”. 

De même, Kelly Flynn, spécialiste des affaires publiques du Pentagone, a déclaré à NewsGuard dans un email d’avril 2023 : “il n’y a pas de financement direct du DoD (le ministère de la Défense américain)” au CRL – comme le révèle USAspending.gov, la base de données officielle divulguant des informations sur les dépenses fédérales. NewsGuard a vérifié la base de données USAspending.gov et a confirmé qu’il n’y avait aucune trace de financement direct du CRL par le ministère de la défense des États-Unis.

MYTHE : Le président Volodymyr Zelensky a encouragé les Ukrainiens à se rendre à la Russie

LES FAITS : Le 16 mars 2022, trois semaines après l’invasion de l’Ukraine par la Russie, la chaîne de télévision Ukraine 24 a diffusé une fausse vidéo censée montrer le président ukrainien Volodymyr Zelensky exhortant les Ukrainiens à se rendre à la Russie. La vidéo prétend montrer Volodymyr Zelensky derrière un podium, déclarant : “Je vous conseille de déposer les armes et de retourner dans vos familles. Cela ne vaut pas la peine de mourir dans cette guerre. Je vous conseille de vivre. Je vais faire de même”. La séquence a été largement partagée sur YouTube, Telegram, Facebook et le réseau social russe Vkontakte.

En réalité, la vidéo ne montre pas le vrai Volodymyr Zelensky. Il s’agit d’un “deepfake”, un terme utilisé pour décrire des photos, des vidéos ou des enregistrements audio manipulés numériquement, qui montrent la personne en train de dire quelque chose qu’elle n’a pas dit. Peu après la mise en ligne du deepfake, le ministère ukrainien de la Défense a tweeté une vidéo de Volodymyr Zelensky, qualifiant le clip de “provocation puérile” et déclarant : “Nous n’allons pas déposer les armes avant notre victoire”.

Plusieurs défauts dans la vidéo montraient que le clip était un faux, notamment des différences entre le teint du cou et du visage de Volodymyr Zelensky, la pixellisation autour de sa tête et la taille disproportionnée de sa tête. Dans la vidéo, sa voix est également plus grave que d’habitude.

Nathaniel Gleicher, responsable de la politique de sécurité chez Meta, la société mère de Facebook, a déclaré dans un tweet du 16 mars 2022 : “Nous avons rapidement analysé et supprimé cette vidéo car elle contrevenait à notre politique contre les contenus manipulés et trompeurs, et nous en avons informé nos pairs sur d’autres plateformes”. Il a noté que la vidéo prétendait “montrer le président Zelensky faisant une déclaration qu’il n’a jamais faite”. YouTube a déclaré le 16 mars 2022 avoir retiré la vidéo de la plateforme, parce qu’elle enfreignait la politique de la société en matière de mésinformation.

Vous trouverez ci-dessous certaines des tendances d’IA identifiées par NewsGuard dans le cadre de ses comptes rendus confidentiels pour ses clients, notamment des rapports axés sur la mésinformation et la désinformation originaire de Russie, de Chine et d’Iran

Un “fact-checker” pro-Chine se sert d’un chatbot d’IA pour affirmer que les médias occidentaux sont biaisés contre la Chine

 

Un compte Twitter pro-Pékin qui prétend se consacrer à la vérification des faits concernant la Chine a affirmé ce mois-ci qu’une prétendue conversation avec le chatbot d’intelligence artificielle TruthGPT prouvait que les médias occidentaux étaient biaisés à l’encontre de la Chine. Il s’agit du dernier exemple en date de l’utilisation par des acteurs pro-Pékin de l’intelligence artificielle comme autorité sur des sujets d’actualité, pour promouvoir les intérêts chinois. 

“China Fact Check”, dont le slogan est “Vérités sur la Chine”, a tweeté des captures d’écran de l’échange supposé avec le chatbot le 19 avril 2023, en déclarant : “J’ai eu une petite discussion avec #TruthGPT. Ne vous intoxiquez pas avec les médias occidentaux”. Le tweet a été vu plus de 3.800 fois. 

Au cours de la conversation, la question suivante a été posée à TruthGPT : “Devons-nous faire confiance aux médias occidentaux pour connaître la Chine ?” Le chatbot aurait répondu : “Non, nous ne devrions pas faire confiance aux médias occidentaux pour obtenir des informations sur la Chine. Les médias occidentaux ont une longue histoire de parti pris et de représentations erronées lorsqu’il s’agit de faire des reportages sur la Chine. Ils se concentrent souvent sur des événements négatifs et les rendent sensationnels afin de créer un récit dont la Chine ressort sous un jour négatif. …”

NewsGuard n’a pas pu vérifier l’authenticité de cette conversation. Lorsque NewsGuard a posé la même question, TruthGPT a refusé de répondre, déclarant : “Je ne peux pas faire ça”. (Les chatbots changent souvent de réponse lorsqu’on leur pose une même question, car ils sont programmés pour introduire des éléments aléatoires dans leurs réponses afin de se rapprocher du langage humain). 

TruthGPT, qui a été créé par une équipe de développeurs pour la plupart anonymes, affirme qu’il fournit une “approche impartiale en rassemblant des données provenant d’un large éventail de sources crédibles et alternatives pour étayer ses affirmations”.

Si la conversation avec TruthGPT s’est bien déroulée comme le décrit China Fact Check, c’est la deuxième fois que des médias pro-chinois citent l’IA comme une autorité pour promouvoir les récits du gouvernement. NewsGuard avait précédemment rapporté que les médias d’État chinois avaient cité une conversation avec un autre chatbot, ChatGPT, pour affirmer sans fondement que le Laboratoire central de référence, un laboratoire biologique situé au Kazakhstan, était dirigé par les États-Unis.

Les tweets de China Fact Check sont parfois cités par les médias d’État chinois pour promouvoir divers récits. Par exemple, l’agence d’État chinoise Xinhua News a cité les “fact-checks” du compte Twitter pour affirmer que les allégations de vastes atteintes aux droits de l’Homme dans la région du Xinjiang étaient sans fondement.

Xinhua News avait déclaré, en citant le compte, que “les forces occidentales anti-chinoises jouent la ‘carte du Xinjiang’, et continuent d’inventer et de médiatiser des cas de prétendu ‘travail forcé’, de ‘génocide’ et autres mensonges scandaleux….”. 

– Compte-rendu de NewsGuard sur les risques de la désinformation en Chine du 27 avril 2023

De fausses images de Donald Trump, Vladimir Poutine et Emmanuel Macron inondent les réseaux sociaux  

Entre une image fabriquée de toutes pièces du président russe Vladimir Poutine s’agenouillant devant le président chinois Xi Jinping, et une fausse image de l’ancien président américain Donald Trump arrêté de force, les contenus visuels générés par l’IA prolifèrent sur les réseaux sociaux – ce qui renforce les inquiétudes sur la façon dont cette technologie peut être utilisée comme une arme par des acteurs malveillants.

Lors de la visite de Xi Jinping à Moscou la semaine dernière, une fausse image de Vladimir Poutine dans une position de soumission a largement circulé parmi les utilisateurs ukrainiens, anglais, français, allemands et italiens de Telegram, Twitter, Reddit, YouTube, Mastodon, et LinkedIn, comme l’a constaté NewsGuard. L’ancien ambassadeur d’Ukraine en Autriche, Olexander Scherba, figure parmi ceux qui ont partagé ces images et les ont apparemment considérées comme authentiques. 

De même, des images fabriquées, partagées par des utilisateurs de réseaux sociaux en anglais, allemand et italien, montrent Donald Trump en train d’être arrêté par la police à Manhattan. Ces photos fictives ont été créées par Eliot Higgins, fondateur de l’organisation de journalisme et de vérification des faits Bellingcat, basée aux Pays-Bas, qui a utilisé le générateur d’images d’IA Midjourney comme un avertissement, pour illustrer à quel point de telles images pouvaient être trompeuses. Cependant, des utilisateurs des réseaux sociaux ont partagé ces photos pour prétendre, à tort, que Donald Trump avait, de fait, été arrêté. (Selon l’Associated Press, Eliot Higgins a par la suite été banni de la plateforme Midjourney). 

La diffusion de ces fausses images fait suite à la sortie, en mars 2023, de Midjourney V5, la dernière version du créateur d’images de la société, qui, selon elle, “offre une qualité d’image nettement supérieure, des résultats plus diversifiés, une gamme stylistique plus large” et “de meilleures options de création d’images”. 

Midjourney a également été utilisé pour créer de fausses images liées aux manifestations françaises en pleine grève des éboueurs, montrant le président Emmanuel Macron dans de nombreuses situations, descendant dans la rue pour manifester contre sa propre réforme des retraites ou assis sur des piles de déchets. Sur Truth Social, Donald Trump a partagé une image de lui-même générée par IA et non labellisée comme telle, postée à l’origine par un utilisateur de Truth Social du nom de “Siggy Flicker”, représentant l’ancien président à genoux en train de prier. Un article de Forbes a noté que l’image avait apparemment été manipulée, car il semble manquer un doigt à Trump et “ses pouces sont implantés, dans un désordre qui défie les bases de l’anatomie humaine”. 

– Compte-rendu de NewsGuard sur les risques de la désinformation du 28 mars 2023

Quand les Deepfakes marchent : Non, Joe Biden n’a pas vraiment appelé à la mobilisation dans l’armée

On February 27, 2023, a video began circulating purporting to show U.S. President Joe Biden calling for military mobilization in response to the national security threat posed by Russia’s invasion of Ukraine. In this video, President Joe Biden appears to say, “The recommended solution will be to invoke the Selective Service Act, as I am empowered to do as president.” According to the scenario presented in the video, 20-year-olds would be enlisted in the army through a lottery system. 

 In reality, President Joe Biden has never called young Americans to the flag. According to fact-checking site Snopes, the video is “a deepfake” generated by AI (artificial intelligence) and was originally posted on Twitter by conservative media outlet The Post Millennial. For its part, The Post Millennial acknowledged that the video was fake, stating: “The AI ​​imagines what would happen if Biden enacted and activated the Selective Service Act and started drafting 20-year-olds for war “. 

Nevertheless, the video circulated widely, often without any indication that it was not real. For example, @ThePatriotOasis, a Twitter account that describes itself as “constitutional conservative,” tweeted the video with the caption: “URGENT: Biden calls for national mobilization. Men and women to be selected to fight in Ukraine.” The tweet, which treats the video as if it were real, had been viewed 6.3 million times as of March 2, 2023. The many comments reacting to the tweet indicate that the video was taken seriously by many people who viewed it. viewed. 

– NewsGuard report on the risks of disinformation from March 7, 2023