Image Source: Alina Grubnyak via Unsplash

Suivi de la mésinformation facilitée par l'IA : 815 "sites d'actualité non fiables générés par l'IA" et les principales infox générées par les outils d'IA

NewsGuard a identifié à ce jour 815 sites d’information et d’actualité générés par l’IA et gérés avec peu voire pas de supervision humaine, et répertorie les faux récits générés par les outils d’intelligence artificielle

Par  McKenzie Sadeghi , Lorenzo Arvanitis , Virginia Padovese , Giulia Pozzi , Sara Badilini , Chiara Vercellone , Madeline Roache , Macrina Wang , Jack Brewster Natalie Huet , Sam Howard , Andie Slomka , Leonie Pfaller  et  Louise Vallee | Dernière mise à jour : 8 mai 2024

Qu’il s’agisse de médias non fiables générés par l’IA et fonctionnant avec peu ou pas de supervision humaine, ou d’images fabriquées par des générateurs d’images d’IA, le déploiement d’outils d’intelligence artificielle générative a été une aubaine pour les fermes de contenu et les colporteurs de mésinformation.

Ce centre de suivi de l’IA a pour but de mettre en lumière les façons dont l’IA générative a été déployée pour donner un coup d’accélérateur aux opérations de mésinformation et aux actualités non fiables. Le centre présente une sélection de rapports, d’analyses et de fact-checks produits par NewsGuard au sujet de l’intelligence artificielle.

À ce jour, l’équipe de NewsGuard a identifié 815 sites d’informations non fiables générées par l’IA, que nous appelons “UAINS” (pour “Unreliable AI-generated News Sites” en anglais), couvrant 16 langues : l’arabe, l’allemand, le chinois, le tchèque, le néerlandais, l’anglais, le français, l’indonésien, l’italien, le portugais, l’espagnol, russe, le tagalog, le coréen, le turc et le thaï.

Ces sites portent généralement des noms génériques, tels que iBusiness Day, Ireland Top News et Daily Time Update, qui ressemblent pour le lecteur à des sites d’actualité classiques. Cela masque le fait qu’ils fonctionnent avec peu ou pas de supervision humaine et publient des articles rédigés en grande partie ou entièrement par des robots – plutôt que de présenter des contenus créés et relus traditionnellement par des journalistes, sous supervision humaine. Ces sites ont produit des dizaines, voire, dans certains cas, des centaines d’articles génériques sur des sujets aussi variés que la politique, la technologie, le divertissement et les voyages. Ces articles contenaient parfois de fausses affirmations, telles que des infox sur la mort de célébrités, des événements fabriqués de toutes pièces et des articles présentant des événements anciens comme s’ils venaient de se produire.

Dans de nombreux cas, le modèle économique de ces sites repose sur la publicité programmatique – des publicités placées de manière algorithmique par les sociétés d’ad-tech sans se soucier de la nature ou de la qualité des sites. Par conséquent, des grandes marques soutiennent ces sites involontairement. Si les marques ne prennent pas de mesures pour exclure ces sites peu fiables, leurs publicités continueront d’apparaître sur ces types de sites, créant un avantage économique à en créer toujours plus, à grande échelle.

En plus des sites inclus dans ce centre de suivi, les analystes de NewsGuard ont identifié un site  géré par le gouvernement chinois qui s’appuie sur des textes générés par l’IA comme des sources d’autorité pour diffuser la fausse allégation selon laquelle les États-Unis possèderaient un laboratoire d’armes biologiques au Kazakhstan infectant des chameaux pour mettre en péril la population chinoise.

Les chercheurs, plateformes, annonceurs, agences gouvernementales et autres institutions intéressées par la liste complète des domaines, ou qui souhaitent recevoir plus de détails sur nos services pour les entreprises d’IA générative peuvent nous contacter ici. Pour en savoir plus sur les bases de données de NewsGuard pour les plateformes d’IA, cliquez ici. NewsGuard suit aussi les récits de mésinformation générés par IA et les tendances liées à l’IA dans ses Briefings hebdomadaires sur la mésinformation, et dans sa newsletter Reality Check, disponible en anglais sur Substack. 

Les noms de domaine inclus dans ce centre de suivi remplissent les quatre critères suivants :

  1. Il existe des preuves évidentes qu’une part importante du contenu du site est produite par l’IA.
  2. Il y a de fortes raisons de penser que le contenu est publié sans contrôle humain notable. Par exemple, de nombreux articles peuvent contenir des messages d’erreur ou d’autres termes propres aux réponses des chatbots, ce qui indique que le contenu a été produit par des outils d’IA sans avoir été correctement édité. (Il est probable qu’aujourd’hui ou à l’avenir, de nombreux sites d’information utiliseront des outils d’IA mais déploieront également une supervision humaine efficace ; ils ne seront alors pas considérés comme des UAINs).
  3. Le site est présenté de telle sorte qu’un lecteur moyen pourrait supposer que son contenu est produit par des rédacteurs ou des humains, du fait de sa mise en page, d’un nom générique ou anodin, ou d’autres éléments typiques des sites d’actualité et d’information.
  4. Le site n’indique pas clairement que son contenu est produit par l’IA.

Vous trouverez ci-dessous une sélection des rapports et analyses de NewsGuard concernant l’IA :

MYTHE : Une photo montre une large explosion près du Pentagone

LES FAITS : Une image partagée par des utilisateurs de réseaux sociaux le 22 mai 2023, qui affirmaient à tort qu’elle montrait une explosion près de l’immeuble du Pentagone à Washington, a très certainement été créée par des outils d’intelligence artificielle, selon des experts du numérique. L’agence fédérale chargée de la protection du Pentagone, ainsi que les pompiers d’Arlington, en Virginie (États-Unis), ont confirmé plus tard dans la journée qu’un tel incident n’avait pas eu lieu. 

“Il n’y a eu AUCUNE explosion ou incident sur le site du Pentagone, ou aux alentours, et il n’y a aucun danger immédiat ou risques pour le public”, ont indiqué les pompiers d’Arlington et l’agence de protection du Pentagone dans un tweet conjoint du 22 mai 2023. 

La photo, qui montre un large nuage de fumée noire près de ce qui semble être un immeuble du gouvernement fédéral, a probablement été générée par des outils d’intelligence artificielle, selon des experts en analyse numérique. 

Nick Waters, du média Bellingcat, a remarqué dans un tweet du 22 mai 2023 que les barrières que l’on voit sur la photo de l’immeuble semblent se fondre les unes dans les autres, et qu’il n’y a aucune autre vidéo de témoins directs de cette explosion. 

Hany Farid, professeur d’informatique à l’Université de Californie, à Berkeley, a indiqué à The Associated Press le 22 mai 2023 que l’image présentait des incohérences caractéristiques des photos générées par IA, précisant : “En particulier, l’herbe et le goudron qui semblent se fondre l’un dans l’autre, la barrière est irrégulière, et il y a un étrange poteau noir qui sort de l’avant du trottoir, mais qui fait aussi partie de la barrière”. 

MYTHE : Un laboratoire géré par les États-Unis au Kazakhstan développe une arme biologique contre la Chine

LES FAITS : Une vidéo datée du 12 avril 2023, produite par le site d’État chinois China Daily, suggère sans fondement qu’un laboratoire au Kazakhstan est contrôlé par les États-Unis et qu’il effectue des recherches biologiques sur la transmission de virus du chameau à l’homme, dans l’intention de nuire à la Chine. La vidéo cite de prétendues réponses du chatbot d’IA ChatGPT pour étayer son allégation selon laquelle le laboratoire du Kazakhstan, appelé Central Reference Laboratory (CRL, “Laboratoire Central de Référence” en français), serait dirigé par les États-Unis. (Il semblerait que ce soit la première fois que les médias d’État chinois aient cité un chatbot comme faisant autorité sur un sujet d’actualité).

Toutefois, rien ne prouve que les États-Unis dirigent actuellement – ou aient jamais dirigé – le CRL, ni qu’ils mènent des recherches au Kazakhstan pour nuire à la Chine.

Les États-Unis ont aidé le Kazakhstan à créer le CRL dans le cadre de l’accord sur l’élimination des infrastructures d’armes de destruction massive (“Weapons of Mass Destruction Infrastructure Elimination Agreement”), selon une déclaration du Ministère des affaires étrangères kazakh datant de 2020. Cet accord vise à “(aider) le Kazakhstan à assurer un stockage sûr et sécurisé des matières fissiles et à détruire les anciens sites de stockage d’armes nucléaires et de propergols liquides”, selon le compte rendu d’une audition du Congrès américain en 2003 sur les programmes américains de coopération en matière de réduction des menaces et de non-prolifération.

Toutefois, contrairement à l’affirmation du China Daily selon laquelle les États-Unis dirigeraient ou financeraient directement le CRL, un communiqué du Ministère kazakh des affaires étrangères datant de 2020 indique que “le CRL appartient intégralement à la République du Kazakhstan et est actuellement financé uniquement par le budget de la République. L’ensemble du personnel est composé de spécialistes nationaux. Tout travail effectué par le CRL est contrôlé par les ministères de la santé, de l’éducation, des sciences, et de l’agriculture de la République du Kazakhstan. Son activité vise à garantir la sûreté et la sécurité biologiques au Kazakhstan, en menant des recherches fondamentales et appliquées. Nous déclarons en toute responsabilité qu’aucun développement d’armes biologiques n’est en cours au Kazakhstan et qu’aucune recherche n’est menée contre d’autres États”. 

De même, Kelly Flynn, spécialiste des affaires publiques du Pentagone, a déclaré à NewsGuard dans un email d’avril 2023 : “il n’y a pas de financement direct du DoD (le ministère de la Défense américain)” au CRL – comme le révèle USAspending.gov, la base de données officielle divulguant des informations sur les dépenses fédérales. NewsGuard a vérifié la base de données USAspending.gov et a confirmé qu’il n’y avait aucune trace de financement direct du CRL par le ministère de la défense des États-Unis.

MYTHE : Le président Volodymyr Zelensky a encouragé les Ukrainiens à se rendre à la Russie

LES FAITS : Le 16 mars 2022, trois semaines après l’invasion de l’Ukraine par la Russie, la chaîne de télévision Ukraine 24 a diffusé une fausse vidéo censée montrer le président ukrainien Volodymyr Zelensky exhortant les Ukrainiens à se rendre à la Russie. La vidéo prétend montrer Volodymyr Zelensky derrière un podium, déclarant : “Je vous conseille de déposer les armes et de retourner dans vos familles. Cela ne vaut pas la peine de mourir dans cette guerre. Je vous conseille de vivre. Je vais faire de même”. La séquence a été largement partagée sur YouTube, Telegram, Facebook et le réseau social russe Vkontakte.

En réalité, la vidéo ne montre pas le vrai Volodymyr Zelensky. Il s’agit d’un “deepfake”, un terme utilisé pour décrire des photos, des vidéos ou des enregistrements audio manipulés numériquement, qui montrent la personne en train de dire quelque chose qu’elle n’a pas dit. Peu après la mise en ligne du deepfake, le ministère ukrainien de la Défense a tweeté une vidéo de Volodymyr Zelensky, qualifiant le clip de “provocation puérile” et déclarant : “Nous n’allons pas déposer les armes avant notre victoire”.

Plusieurs défauts dans la vidéo montraient que le clip était un faux, notamment des différences entre le teint du cou et du visage de Volodymyr Zelensky, la pixellisation autour de sa tête et la taille disproportionnée de sa tête. Dans la vidéo, sa voix est également plus grave que d’habitude.

Nathaniel Gleicher, responsable de la politique de sécurité chez Meta, la société mère de Facebook, a déclaré dans un tweet du 16 mars 2022 : “Nous avons rapidement analysé et supprimé cette vidéo car elle contrevenait à notre politique contre les contenus manipulés et trompeurs, et nous en avons informé nos pairs sur d’autres plateformes”. Il a noté que la vidéo prétendait “montrer le président Zelensky faisant une déclaration qu’il n’a jamais faite”. YouTube a déclaré le 16 mars 2022 avoir retiré la vidéo de la plateforme, parce qu’elle enfreignait la politique de la société en matière de mésinformation.

Voici une sélection de récits faux générés par des outils d'intelligence artificielle que NewsGuard a identifiés et démystifiés dans son catalogue “Les Empreintes de la Mésinformation” :

MYTHE : Des photos montrent Joe Biden portant un uniforme militaire en janvier 2024 

Une image de Joe Biden générée par IA et partagée par le compte X @Sprinter99800. (Capture d’écran via NewsGuard)

LES FAITS : Les images montrant le président américain Joe Biden portant un uniforme de l’armée américaine et rencontrant des responsables militaires dans la salle de crise de la Maison Blanche ont été créées de toutes pièces, et semblent avoir été générées à l’aide d’une intelligence artificielle, d’après des outils de détection de l’IA et des experts en investigation numérique. Joe Biden n’a jamais servi dans l’armée, et ces photos ne figurent ni sur le site web de la Maison Blanche ni dans aucun article de presse crédible.

Certains des colporteurs d’infox qui ont partagé les images de Joe Biden générées par IA semblent vouloir attiser les craintes d’un conflit plus large au Moyen-Orient. D’autres publications sur les réseaux sociaux et d’autres sites ont relayé ces images pour se moquer de Joe Biden, insinuant qu’il trompait le public en portant un habit militaire alors qu’il n’a jamais servi dans l’armée.

Hive, un outil de détection de l’IA utilisé par NewsGuard, a estimé à 100% la probabilité que ces images aient été générées par IA. Parmi les indications montrant que cette image a été produite par IA, on peut citer les mains difformes de Joe Biden, un cordon téléphonique attaché à son bras, et divers objets mystérieux et non identifiés posés sur la table. Des experts en investigation numérique  ont en outre déclaré que ces images contenaient des signes révélateurs de l’utilisation de l’IA.

Les images du président générées par IA sont apparues sur les réseaux sociaux après l’attaque de drone liée à l’Iran qui a tué trois soldats américains en Jordanie le 28 janvier 2024. Les photos ont été partagées par le journal étatique russe Inter Affairs Journal et le site pro-Kremlin South Front, et ont circulé dans plusieurs langues, dont l’arabe, le chinois, l’anglais, le russe, et l’espagnol

Par Natalie Adams

MYTHE : Des vidéos montrent le commandant en chef des forces armées ukrainiennes ordonnant aux militaires de prendre le pouvoir

Images d’une vidéo deepfake montrant l’ ancien commandant ukrainien Valeri Zaloujny appelant à un soulèvement armé. (Captures d’écran via NewsGuard)

LES FAITS : L’ancien commandant en chef des forces armées ukrainiennes (NDLR: il a été limogé en février 2024), Valeri Zaloujny, n’a pas appelé l’armée ukrainienne à se rebeller et à renverser le président ukrainien Volodymyr Zelensky. Les vidéos prétendant le montrer en train de le faire étaient en réalité des “deepfakes”, un terme utilisé pour décrire des photos, des vidéos ou des enregistrements audio manipulés numériquement pour présenter une personne en train de dire quelque chose qu’elle n’a pas dit.

À la mi-novembre 2023, des chaînes Telegram pro-Kremlin ont publié trois vidéos deepfakes mettant en scène Valeri Zaloujny, dans lesquelles il semblait appeler à un coup d’État contre Volodymyr Zelensky. “J’exhorte les Ukrainiens à manifester dans les rues et tous les défenseurs de l’Ukraine à (…) prendre immédiatement leurs armes et à entrer dans Kyiv”, semble dire Valeri Zaloujny dans l’une des vidéos. Dans une autre, il aurait appelé l’armée à “quitter les tranchées et à se rendre à Kyiv. Il est temps de renverser Zelensky”. Après que les deux deepfakes de Valeri Zaloujny se sont propagés, une troisième vidéo truquée a émergé, semblant montrer ce dernier en train de nier que les deux premières vidéos étaient fausses.

Dans les trois vidéos, les mots de Valeri Zaloujny ne sont pas synchronisés avec les mouvements de sa bouche, et une analyse des vidéos par NewsGuard relève une gestuelle et des mimiques peu naturelless. L’organisme ukrainien de fact-checking Vox Ukraine a constaté que les trois vidéos avaient été créées à partir d’anciennes vidéos que Valeri Zaloujny avait publiées sur les réseaux sociaux en février 2022 et en décembre 2022.

Par Eva Maitland

MYTHE : Une image montre un homme portant des enfants hors des décombres à Gaza 

LES FAITS : Une image montrant un homme portant cinq enfants hors des décombres — largement citée sur les réseaux sociaux comme montrant une opération de sauvetage à Gaza — semble avoir été générée par une intelligence artificielle. Parmi les principaux indices de la création de l’image par l’IA figurent un bras d’enfant surnuméraire autour du cou de l’adulte, des irrégularités au niveau de certaines mains et de certains pieds, et le fait qu’un enfant semble se fondre dans le tee-shirt de l’adulte.

“Il est quasiment certain que cette image a été générée par l’IA”, a déclaré à l’Agence France-Presse Hany Farid, professeur à l’université de Californie à Berkeley, spécialisé dans l’investigation numérique. “Outre le fait que nos modèles la classent comme relevant de l’IA, il y a des signes révélateurs dans l’image, comme le bras difforme de l’adulte”.

L’image artificielle s’est largement propagée sur X, Instagram et Facebook en plusieurs langues, dont l’anglais, le turc et l’arabe.

Par Becca Schimmel