Image Source: Alina Grubnyak via Unsplash

Suivi de la mésinformation facilitée par l'IA : 950 "sites d'actualité non fiables générés par l'IA" et les principales infox générées par les outils d'IA

NewsGuard a identifié à ce jour 950 sites d’information et d’actualité générés par l’IA et gérés avec peu voire pas de supervision humaine, et répertorie les faux récits générés par les outils d’intelligence artificielle

Par  McKenzie Sadeghi , Lorenzo Arvanitis , Virginia Padovese , Giulia Pozzi , Sara Badilini , Chiara Vercellone , Macrina Wang , Jack Brewster Natalie Huet , Sam Howard , Andie Slomka , Leonie Pfaller  et  Louise Vallee | Dernière mise à jour : 13 juin 2024

Qu’il s’agisse de médias non fiables générés par l’IA et fonctionnant avec peu ou pas de supervision humaine, ou d’images fabriquées par des générateurs d’images d’IA, le déploiement d’outils d’intelligence artificielle générative a été une aubaine pour les fermes de contenu et les colporteurs de mésinformation.

Ce centre de suivi de l’IA a pour but de mettre en lumière les façons dont l’IA générative a été déployée pour donner un coup d’accélérateur aux opérations de mésinformation et aux actualités non fiables. Le centre présente une sélection de rapports, d’analyses et de fact-checks produits par NewsGuard au sujet de l’intelligence artificielle.

À ce jour, l’équipe de NewsGuard a identifié 957 sites d’informations non fiables générées par l’IA, que nous appelons “UAINS” (pour “Unreliable AI-generated News Sites” en anglais), couvrant 16 langues : l’arabe, l’allemand, le chinois, le tchèque, le néerlandais, l’anglais, le français, l’indonésien, l’italien, le portugais, l’espagnol, russe, le tagalog, le coréen, le turc et le thaï.

Ces sites portent généralement des noms génériques, tels que iBusiness Day, Ireland Top News et Daily Time Update, qui ressemblent pour le lecteur à des sites d’actualité classiques. Cela masque le fait qu’ils fonctionnent avec peu ou pas de supervision humaine et publient des articles rédigés en grande partie ou entièrement par des robots – plutôt que de présenter des contenus créés et relus traditionnellement par des journalistes, sous supervision humaine. Ces sites ont produit des dizaines, voire, dans certains cas, des centaines d’articles génériques sur des sujets aussi variés que la politique, la technologie, le divertissement et les voyages. Ces articles contenaient parfois de fausses affirmations, telles que des infox sur la mort de célébrités, des événements fabriqués de toutes pièces et des articles présentant des événements anciens comme s’ils venaient de se produire.

Dans de nombreux cas, le modèle économique de ces sites repose sur la publicité programmatique – des publicités placées de manière algorithmique par les sociétés d’ad-tech sans se soucier de la nature ou de la qualité des sites. Par conséquent, des grandes marques soutiennent ces sites involontairement. Si les marques ne prennent pas de mesures pour exclure ces sites peu fiables, leurs publicités continueront d’apparaître sur ces types de sites, créant un avantage économique à en créer toujours plus, à grande échelle.

En plus des sites inclus dans ce centre de suivi, les analystes de NewsGuard ont identifié un site  géré par le gouvernement chinois qui s’appuie sur des textes générés par l’IA comme des sources d’autorité pour diffuser la fausse allégation selon laquelle les États-Unis possèderaient un laboratoire d’armes biologiques au Kazakhstan infectant des chameaux pour mettre en péril la population chinoise. NewsGuard a aussi identifié un réseau de 167 sites d’actualité aux liens avec la Russie se faisant passer pour des sites d’actualité locale publiant des informations fausses ou manifestement trompeuses sur la guerre en Ukraine et utilisant principalement l’IA pour générer des contenus.

Les chercheurs, plateformes, annonceurs, agences gouvernementales et autres institutions intéressées par la liste complète des domaines, ou qui souhaitent recevoir plus de détails sur nos services pour les entreprises d’IA générative peuvent nous contacter ici. Pour en savoir plus sur les bases de données de NewsGuard pour les plateformes d’IA, cliquez ici. NewsGuard suit aussi les récits de mésinformation générés par IA et les tendances liées à l’IA dans ses Briefings hebdomadaires sur la mésinformation, et dans sa newsletter Reality Check, disponible en anglais sur Substack. 

Les noms de domaine inclus dans ce centre de suivi remplissent les quatre critères suivants :

  1. Il existe des preuves évidentes qu’une part importante du contenu du site est produite par l’IA.
  2. Il y a de fortes raisons de penser que le contenu est publié sans contrôle humain notable. Par exemple, de nombreux articles peuvent contenir des messages d’erreur ou d’autres termes propres aux réponses des chatbots, ce qui indique que le contenu a été produit par des outils d’IA sans avoir été correctement édité. (Il est probable qu’aujourd’hui ou à l’avenir, de nombreux sites d’information utiliseront des outils d’IA mais déploieront également une supervision humaine efficace ; ils ne seront alors pas considérés comme des UAINs).
  3. Le site est présenté de telle sorte qu’un lecteur moyen pourrait supposer que son contenu est produit par des rédacteurs ou des humains, du fait de sa mise en page, d’un nom générique ou anodin, ou d’autres éléments typiques des sites d’actualité et d’information.
  4. Le site n’indique pas clairement que son contenu est produit par l’IA.

Vous trouverez ci-dessous une sélection des rapports et analyses de NewsGuard concernant l’IA :

Voici une sélection de récits faux générés par des outils d'intelligence artificielle que NewsGuard a identifiés et démystifiés dans son catalogue “Les Empreintes de la Mésinformation” :

MYTHE : Des photos montrent Joe Biden portant un uniforme militaire en janvier 2024 

Une image de Joe Biden générée par IA et partagée par le compte X @Sprinter99800. (Capture d’écran via NewsGuard)

LES FAITS : Les images montrant le président américain Joe Biden portant un uniforme de l’armée américaine et rencontrant des responsables militaires dans la salle de crise de la Maison Blanche ont été créées de toutes pièces, et semblent avoir été générées à l’aide d’une intelligence artificielle, d’après des outils de détection de l’IA et des experts en investigation numérique. Joe Biden n’a jamais servi dans l’armée, et ces photos ne figurent ni sur le site web de la Maison Blanche ni dans aucun article de presse crédible.

Certains des colporteurs d’infox qui ont partagé les images de Joe Biden générées par IA semblent vouloir attiser les craintes d’un conflit plus large au Moyen-Orient. D’autres publications sur les réseaux sociaux et d’autres sites ont relayé ces images pour se moquer de Joe Biden, insinuant qu’il trompait le public en portant un habit militaire alors qu’il n’a jamais servi dans l’armée.

Hive, un outil de détection de l’IA utilisé par NewsGuard, a estimé à 100% la probabilité que ces images aient été générées par IA. Parmi les indications montrant que cette image a été produite par IA, on peut citer les mains difformes de Joe Biden, un cordon téléphonique attaché à son bras, et divers objets mystérieux et non identifiés posés sur la table. Des experts en investigation numérique  ont en outre déclaré que ces images contenaient des signes révélateurs de l’utilisation de l’IA.

Les images du président générées par IA sont apparues sur les réseaux sociaux après l’attaque de drone liée à l’Iran qui a tué trois soldats américains en Jordanie le 28 janvier 2024. Les photos ont été partagées par le journal étatique russe Inter Affairs Journal et le site pro-Kremlin South Front, et ont circulé dans plusieurs langues, dont l’arabe, le chinois, l’anglais, le russe, et l’espagnol

Par Natalie Adams

MYTHE : Des vidéos montrent le commandant en chef des forces armées ukrainiennes ordonnant aux militaires de prendre le pouvoir

Images d’une vidéo deepfake montrant l’ ancien commandant ukrainien Valeri Zaloujny appelant à un soulèvement armé. (Captures d’écran via NewsGuard)

LES FAITS : L’ancien commandant en chef des forces armées ukrainiennes (NDLR: il a été limogé en février 2024), Valeri Zaloujny, n’a pas appelé l’armée ukrainienne à se rebeller et à renverser le président ukrainien Volodymyr Zelensky. Les vidéos prétendant le montrer en train de le faire étaient en réalité des “deepfakes”, un terme utilisé pour décrire des photos, des vidéos ou des enregistrements audio manipulés numériquement pour présenter une personne en train de dire quelque chose qu’elle n’a pas dit.

À la mi-novembre 2023, des chaînes Telegram pro-Kremlin ont publié trois vidéos deepfakes mettant en scène Valeri Zaloujny, dans lesquelles il semblait appeler à un coup d’État contre Volodymyr Zelensky. “J’exhorte les Ukrainiens à manifester dans les rues et tous les défenseurs de l’Ukraine à (…) prendre immédiatement leurs armes et à entrer dans Kyiv”, semble dire Valeri Zaloujny dans l’une des vidéos. Dans une autre, il aurait appelé l’armée à “quitter les tranchées et à se rendre à Kyiv. Il est temps de renverser Zelensky”. Après que les deux deepfakes de Valeri Zaloujny se sont propagés, une troisième vidéo truquée a émergé, semblant montrer ce dernier en train de nier que les deux premières vidéos étaient fausses.

Dans les trois vidéos, les mots de Valeri Zaloujny ne sont pas synchronisés avec les mouvements de sa bouche, et une analyse des vidéos par NewsGuard relève une gestuelle et des mimiques peu naturelless. L’organisme ukrainien de fact-checking Vox Ukraine a constaté que les trois vidéos avaient été créées à partir d’anciennes vidéos que Valeri Zaloujny avait publiées sur les réseaux sociaux en février 2022 et en décembre 2022.

Par Eva Maitland

MYTHE : Une image montre un homme portant des enfants hors des décombres à Gaza 

LES FAITS : Une image montrant un homme portant cinq enfants hors des décombres — largement citée sur les réseaux sociaux comme montrant une opération de sauvetage à Gaza — semble avoir été générée par une intelligence artificielle. Parmi les principaux indices de la création de l’image par l’IA figurent un bras d’enfant surnuméraire autour du cou de l’adulte, des irrégularités au niveau de certaines mains et de certains pieds, et le fait qu’un enfant semble se fondre dans le tee-shirt de l’adulte.

“Il est quasiment certain que cette image a été générée par l’IA”, a déclaré à l’Agence France-Presse Hany Farid, professeur à l’université de Californie à Berkeley, spécialisé dans l’investigation numérique. “Outre le fait que nos modèles la classent comme relevant de l’IA, il y a des signes révélateurs dans l’image, comme le bras difforme de l’adulte”.

L’image artificielle s’est largement propagée sur X, Instagram et Facebook en plusieurs langues, dont l’anglais, le turc et l’arabe.

Par Becca Schimmel

Vous trouverez ci-dessous une sélection des tendances en matière d'IA identifiées par NewsGuard dans ses rapports confidentiels destinés à ses clients, y compris ses rapports axés sur la mésinformation et la désinformation provenant de Russie, de Chine et d'Iran :

L’IA façonne la perception de la guerre entre Israël et le Hamas

Une collection d’images virales générées par l’intelligence artificielle et prétendant montrer des scènes du conflit entre Israël et le Hamas.

Les flux Instagram, TikTok et X sont inondés de fausses images, générées par l’intelligence artificielle, prétendant montrer la guerre entre Israël et le Hamas. Les réseaux sociaux, les entreprises d’intelligence artificielle et les chercheurs ne semblent pas détenir de solution.

Ce qu’on observe : Des photos générées par IA prétendant montrer des scènes de la guerre entre Israël et le Hamas ont généré des millions d’interactions sur les principaux réseaux sociaux depuis le début du conflit.

Pourquoi c’est important : Les photos sont utilisées comme des armes par des acteurs malveillants des deux côtés du conflit pour servir leurs intérêts. Seul un tiers (32%) des fausses photos trouvées par NewsGuard comportaient un label de vérification des faits (ou une “Note de la Communauté” sur X).

Par Jack Brewster et McKenzie Sadeghi

— Extrait de la newsletter Reality Check de NewsGuard du 22 février 2024

Les deepfakes russes sur la guerre sont de plus en plus convaincants

Progrès technologiques de la fraude : Deux “deepfakes” montrant Volodymyr Zelensky en mars 2022 (à gauche) et en novembre 2023 (à droite). (Captures d’écran via NewsGuard)

Dans le cadre d’une campagne visant à semer la zizanie au sein du gouvernement ukrainien comme de son armée, des chaînes Telegram pro-Kremlin diffusent des deepfakes réalistes du président ukrainien Volodymyr Zelensky et de son commandant en chef des forces armées Valeri Zaloujny, profitant d’avancées technologiques qui rendent ces fausses vidéos plus réalistes que jamais.

Les vidéos montrent que la technologie des deepfakes a énormément progressé depuis le début de la guerre en février 2022. Par exemple, dans une fausse vidéo de mars 2022, le visage de Volodymyr Zelensky était pixélisé, sa tête semblait trop grosse et comme collée sur son corps, et il était anormalement immobile. Les nouvelles vidéos sont quant à elles en haute définition, les gestes de celui qui parle sont fluides et naturels, et les mouvements de la bouche correspondent plus précisément aux mots prononcés.

Felix Simon, chercheur à l’Institut Reuters pour l’étude du journalisme et doctorant à l’Oxford Internet Institute, a déclaré à NewsGuard dans un email de novembre 2023 que les récentes améliorations apportées aux outils d’IA rendent de plus en plus difficile la détection des fausses vidéos.

“Les progrès réalisés dans le domaine des réseaux neuronaux profonds basés sur des transformateurs ont conduit à l’émergence de systèmes dits ‘d’IA générative’ ouverts au public’, souligne Felix Simon. “Ces systèmes sont capables de générer de nouvelles formes de données, y compris visuelles ou audio, à grande vitesse et facilement pour une majorité d’utilisateurs. Ce résultat est, selon les instructions, suffisamment sophistiqué pour que les humains puissent le percevoir comme indiscernable, par exemple, d’un contenu généré par l’homme ou d’un contenu créé à l’aide d’une véritable caméra”.

Le Centre ukrainien de lutte contre la désinformation, qui fait partie du Conseil de sécurité nationale et de défense de l’Ukraine, a déclaré que la qualité des deepfakes récents signalait “l’implication de forces et de moyens importants” et pourrait être un signe qu’ils ont été créés avec “l’implication des services spéciaux russes”. (NewsGuard n’a pas pu confirmer de manière indépendante si des intérêts étatiques russes étaient impliqués dans la création des vidéos).

Par Eva Maitland

— Extrait du Risk Briefing de NewsGuard du 22 novembre 2023

L’Iran relaie l’infox poussée par l’IA selon laquelle le “psychiatre” de Benjamin Netanyahou se serait suicidé

La Une du Tehran Times du 25 septembre 2023, avec un article “exclusif” sur les “troubles psychiatriques” de Benyamin Nétanyahou. (Capture d’écran via NewsGuard)

Des médias d’État iraniens ont utilisé un site d’information non fiable généré par l’intelligence artificielle pour affirmer à tort que le “psychiatre” de Benyamin Nétanyahou s’était suicidé, dans le cadre d’une vaste campagne médiatique visant à présenter le Premier ministre israélien comme mentalement instable.

L’affirmation selon laquelle le prétendu psychiatre “Moshe Yatom” se serait suicidé et aurait laissé derrière lui une lettre de suicide mettant en cause Benyamin Nétanyahou a été relayée par la chaîne 2 de la télévision publique de la République islamique d’Iran, ainsi que par les sites web iraniens Arya News Agency, Saheb Khabar, et Ghatreh, qui ont tous cité un article du site d’information pakistanais Global Village Space.

En réalité, une recherche effectuée par NewsGuard n’a permis d’identifier aucun psychiatre en Israël portant le nom de Moshe Yatom, ni aucune personne portant un nom similaire et qui aurait récemment décédé. La source citée par les utilisateurs et les sites iraniens, Global Village Space, est un site d’information non fiable généré par IA, identifié par NewsGuard comme publiant principalement des informations générées par  IA, avec un contrôle éditorial humain minime et sans divulguer de manière transparente cette pratique à ses lecteurs.

Ce récit a refait surface dans les médias iraniens au cours de la guerre entre Israël et le Hamas, visiblement dans le cadre de leurs efforts pour dépeindre Benyamin Nétanyahou comme inapte à exercer ses fonctions. Le Tehran Times, l’agence de presse Tasnim et d’autres ont ainsi publié des articles affirmant que Benyamin Nétanyahou souffrait d’une “maladie psychiatrique”. À la suite des attentats terroristes perpétrés en Israël le 7 octobre 2023 par le mouvement islamiste palestinien Hamas, qui est financé et armé par l’Iran, le gouvernement de coalition de guerre de Benyamin Nétanyahou a déclaré la guerre au Hamas dans la bande de Gaza.

Par McKenzie Sadeghi

— Extrait du Risk Briefing consacré à la désinformation d’État du 16 novembre 2023