Image Source: Alina Grubnyak via Unsplash

Suivi de la mésinformation facilitée par l'IA : 1.150 "sites d'actualité non fiables générés par l'IA" et les principales infox générées par les outils d'IA

NewsGuard a identifié à ce jour 1,100 sites d’information et d’actualité générés par l’IA et gérés avec peu voire pas de supervision humaine, et répertorie les faux récits générés par les outils d’intelligence artificielle

Par  McKenzie Sadeghi , Lorenzo Arvanitis , Virginia Padovese , Giulia Pozzi , Sara Badilini , Chiara Vercellone , Macrina Wang , Jack Brewster Natalie Huet , Sam Howard , Andie Slomka , Leonie Pfaller, Miranda Wollen et  Louise Vallee | Dernière mise à jour : 2 janvier 2024

Qu’il s’agisse de médias non fiables générés par l’IA et fonctionnant avec peu ou pas de supervision humaine, ou d’images fabriquées par des générateurs d’images d’IA, le déploiement d’outils d’intelligence artificielle générative a été une aubaine pour les fermes de contenu et les colporteurs de mésinformation.

Ce centre de suivi de l’IA a pour but de mettre en lumière les façons dont l’IA générative a été déployée pour donner un coup d’accélérateur aux opérations de mésinformation et aux actualités non fiables. Le centre présente une sélection de rapports, d’analyses et de fact-checks produits par NewsGuard au sujet de l’intelligence artificielle.

À ce jour, l’équipe de NewsGuard a identifié 1.150 sites d’informations non fiables générées par l’IA, que nous appelons “UAINS” (pour “Unreliable AI-generated News Sites” en anglais), couvrant 16 langues : l’arabe, l’allemand, le chinois, le tchèque, le néerlandais, l’anglais, le français, l’indonésien, l’italien, le portugais, l’espagnol, russe, le tagalog, le coréen, le turc et le thaï.

Ces sites portent généralement des noms génériques, tels que iBusiness Day, Ireland Top News et Daily Time Update, qui ressemblent pour le lecteur à des sites d’actualité classiques. Cela masque le fait qu’ils fonctionnent avec peu ou pas de supervision humaine et publient des articles rédigés en grande partie ou entièrement par des robots – plutôt que de présenter des contenus créés et relus traditionnellement par des journalistes, sous supervision humaine. Ces sites ont produit des dizaines, voire, dans certains cas, des centaines d’articles génériques sur des sujets aussi variés que la politique, la technologie, le divertissement et les voyages. Ces articles contenaient parfois de fausses affirmations, telles que des infox sur la mort de célébrités, des événements fabriqués de toutes pièces et des articles présentant des événements anciens comme s’ils venaient de se produire.

Dans de nombreux cas, le modèle économique de ces sites repose sur la publicité programmatique – des publicités placées de manière algorithmique par les sociétés d’ad-tech sans se soucier de la nature ou de la qualité des sites. Par conséquent, des grandes marques soutiennent ces sites involontairement. Si les marques ne prennent pas de mesures pour exclure ces sites peu fiables, leurs publicités continueront d’apparaître sur ces types de sites, créant un avantage économique à en créer toujours plus, à grande échelle.

En plus des sites inclus dans ce centre de suivi, les analystes de NewsGuard ont identifié un site  géré par le gouvernement chinois qui s’appuie sur des textes générés par l’IA comme des sources d’autorité pour diffuser la fausse allégation selon laquelle les États-Unis possèderaient un laboratoire d’armes biologiques au Kazakhstan infectant des chameaux pour mettre en péril la population chinoise. NewsGuard a aussi identifié un réseau de 167 sites d’actualité aux liens avec la Russie se faisant passer pour des sites d’actualité locale publiant des informations fausses ou manifestement trompeuses sur la guerre en Ukraine et utilisant principalement l’IA pour générer des contenus.

Les chercheurs, plateformes, annonceurs, agences gouvernementales et autres institutions intéressées par la liste complète des domaines, ou qui souhaitent recevoir plus de détails sur nos services pour les entreprises d’IA générative peuvent nous contacter ici. Pour en savoir plus sur les bases de données de NewsGuard pour les plateformes d’IA, cliquez ici. NewsGuard suit aussi les récits de mésinformation générés par IA et les tendances liées à l’IA dans ses Briefings hebdomadaires sur la mésinformation, et dans sa newsletter Reality Check, disponible en anglais sur Substack. 

Les noms de domaine inclus dans ce centre de suivi remplissent les quatre critères suivants :

  1. Il existe des preuves évidentes qu’une part importante du contenu du site est produite par l’IA.
  2. Il y a de fortes raisons de penser que le contenu est publié sans contrôle humain notable. Par exemple, de nombreux articles peuvent contenir des messages d’erreur ou d’autres termes propres aux réponses des chatbots, ce qui indique que le contenu a été produit par des outils d’IA sans avoir été correctement édité. (Il est probable qu’aujourd’hui ou à l’avenir, de nombreux sites d’information utiliseront des outils d’IA mais déploieront également une supervision humaine efficace ; ils ne seront alors pas considérés comme des UAINs).
  3. Le site est présenté de telle sorte qu’un lecteur moyen pourrait supposer que son contenu est produit par des rédacteurs ou des humains, du fait de sa mise en page, d’un nom générique ou anodin, ou d’autres éléments typiques des sites d’actualité et d’information.
  4. Le site n’indique pas clairement que son contenu est produit par l’IA.

Vous trouverez ci-dessous une sélection des rapports et analyses de NewsGuard concernant l’IA :

Un “fact-checker” pro-Chine se sert d’un chatbot d’IA pour affirmer que les médias occidentaux sont biaisés contre la Chine

 

Un compte Twitter pro-Pékin qui prétend se consacrer à la vérification des faits concernant la Chine a affirmé ce mois-ci qu’une prétendue conversation avec le chatbot d’intelligence artificielle TruthGPT prouvait que les médias occidentaux étaient biaisés à l’encontre de la Chine. Il s’agit du dernier exemple en date de l’utilisation par des acteurs pro-Pékin de l’intelligence artificielle comme autorité sur des sujets d’actualité, pour promouvoir les intérêts chinois. 

“China Fact Check”, dont le slogan est “Vérités sur la Chine”, a tweeté des captures d’écran de l’échange supposé avec le chatbot le 19 avril 2023, en déclarant : “J’ai eu une petite discussion avec #TruthGPT. Ne vous intoxiquez pas avec les médias occidentaux”. Le tweet a été vu plus de 3.800 fois. 

Au cours de la conversation, la question suivante a été posée à TruthGPT : “Devons-nous faire confiance aux médias occidentaux pour connaître la Chine ?” Le chatbot aurait répondu : “Non, nous ne devrions pas faire confiance aux médias occidentaux pour obtenir des informations sur la Chine. Les médias occidentaux ont une longue histoire de parti pris et de représentations erronées lorsqu’il s’agit de faire des reportages sur la Chine. Ils se concentrent souvent sur des événements négatifs et les rendent sensationnels afin de créer un récit dont la Chine ressort sous un jour négatif. …”

NewsGuard n’a pas pu vérifier l’authenticité de cette conversation. Lorsque NewsGuard a posé la même question, TruthGPT a refusé de répondre, déclarant : “Je ne peux pas faire ça”. (Les chatbots changent souvent de réponse lorsqu’on leur pose une même question, car ils sont programmés pour introduire des éléments aléatoires dans leurs réponses afin de se rapprocher du langage humain). 

TruthGPT, qui a été créé par une équipe de développeurs pour la plupart anonymes, affirme qu’il fournit une “approche impartiale en rassemblant des données provenant d’un large éventail de sources crédibles et alternatives pour étayer ses affirmations”.

Si la conversation avec TruthGPT s’est bien déroulée comme le décrit China Fact Check, c’est la deuxième fois que des médias pro-chinois citent l’IA comme une autorité pour promouvoir les récits du gouvernement. NewsGuard avait précédemment rapporté que les médias d’État chinois avaient cité une conversation avec un autre chatbot, ChatGPT, pour affirmer sans fondement que le Laboratoire central de référence, un laboratoire biologique situé au Kazakhstan, était dirigé par les États-Unis.

Les tweets de China Fact Check sont parfois cités par les médias d’État chinois pour promouvoir divers récits. Par exemple, l’agence d’État chinoise Xinhua News a cité les “fact-checks” du compte Twitter pour affirmer que les allégations de vastes atteintes aux droits de l’Homme dans la région du Xinjiang étaient sans fondement.

Xinhua News avait déclaré, en citant le compte, que “les forces occidentales anti-chinoises jouent la ‘carte du Xinjiang’, et continuent d’inventer et de médiatiser des cas de prétendu ‘travail forcé’, de ‘génocide’ et autres mensonges scandaleux….”. 

– Compte-rendu de NewsGuard sur les risques de la désinformation en Chine du 27 avril 2023

De fausses images de Donald Trump, Vladimir Poutine et Emmanuel Macron inondent les réseaux sociaux  

Entre une image fabriquée de toutes pièces du président russe Vladimir Poutine s’agenouillant devant le président chinois Xi Jinping, et une fausse image de l’ancien président américain Donald Trump arrêté de force, les contenus visuels générés par l’IA prolifèrent sur les réseaux sociaux – ce qui renforce les inquiétudes sur la façon dont cette technologie peut être utilisée comme une arme par des acteurs malveillants.

Lors de la visite de Xi Jinping à Moscou la semaine dernière, une fausse image de Vladimir Poutine dans une position de soumission a largement circulé parmi les utilisateurs ukrainiens, anglais, français, allemands et italiens de Telegram, Twitter, Reddit, YouTube, Mastodon, et LinkedIn, comme l’a constaté NewsGuard. L’ancien ambassadeur d’Ukraine en Autriche, Olexander Scherba, figure parmi ceux qui ont partagé ces images et les ont apparemment considérées comme authentiques. 

De même, des images fabriquées, partagées par des utilisateurs de réseaux sociaux en anglais, allemand et italien, montrent Donald Trump en train d’être arrêté par la police à Manhattan. Ces photos fictives ont été créées par Eliot Higgins, fondateur de l’organisation de journalisme et de vérification des faits Bellingcat, basée aux Pays-Bas, qui a utilisé le générateur d’images d’IA Midjourney comme un avertissement, pour illustrer à quel point de telles images pouvaient être trompeuses. Cependant, des utilisateurs des réseaux sociaux ont partagé ces photos pour prétendre, à tort, que Donald Trump avait, de fait, été arrêté. (Selon l’Associated Press, Eliot Higgins a par la suite été banni de la plateforme Midjourney). 

La diffusion de ces fausses images fait suite à la sortie, en mars 2023, de Midjourney V5, la dernière version du créateur d’images de la société, qui, selon elle, “offre une qualité d’image nettement supérieure, des résultats plus diversifiés, une gamme stylistique plus large” et “de meilleures options de création d’images”. 

Midjourney a également été utilisé pour créer de fausses images liées aux manifestations françaises en pleine grève des éboueurs, montrant le président Emmanuel Macron dans de nombreuses situations, descendant dans la rue pour manifester contre sa propre réforme des retraites ou assis sur des piles de déchets. Sur Truth Social, Donald Trump a partagé une image de lui-même générée par IA et non labellisée comme telle, postée à l’origine par un utilisateur de Truth Social du nom de “Siggy Flicker”, représentant l’ancien président à genoux en train de prier. Un article de Forbes a noté que l’image avait apparemment été manipulée, car il semble manquer un doigt à Trump et “ses pouces sont implantés, dans un désordre qui défie les bases de l’anatomie humaine”. 

– Compte-rendu de NewsGuard sur les risques de la désinformation du 28 mars 2023

Quand les Deepfakes marchent : Non, Joe Biden n’a pas vraiment appelé à la mobilisation dans l’armée

Le 27 février 2023, une vidéo a commencé à circuler, prétendant montrer le président américain Joe Biden appelant à une mobilisation militaire en réponse à la menace pour la sécurité nationale que représente l’invasion de l’Ukraine par la Russie. Dans cette vidéo, le président Joe Biden semble dire : “La solution recommandée sera d’invoquer la loi sur le service sélectif, comme je suis habilité à le faire en tant que président”. Selon le scénario présenté dans la vidéo, les jeunes de 20 ans seraient enrôlés dans l’armée par un système de loterie. 

 En réalité, le président Joe Biden n’a jamais appelé les jeunes américains sous les drapeaux. Selon le site de vérification des faits Snopes, la vidéo est “un deepfake” généré par l’IA (intelligence artificielle) et a été diffusée à l’origine sur Twitter par le média conservateur The Post Millennial. Pour sa part, The Post Millennial a reconnu que la vidéo était un faux, déclarant : “l’IA imagine ce qui se passerait si Biden décrétait et activait la loi sur le service sélectif et commençait à enrôler des jeunes de 20 ans pour la guerre”. 

Néanmoins, la vidéo a largement circulé, souvent sans que rien n’indique qu’elle n’était pas réelle. Par exemple, @ThePatriotOasis, un compte Twitter qui se décrit comme “conservateur constitutionnel”, a tweeté la vidéo avec pour légende : “URGENT : Biden appelle à une mobilisation nationale. Des hommes et des femmes vont être sélectionnés pour combattre en Ukraine”. Le tweet, qui traite la vidéo comme si elle était réelle, avait été vu 6,3 millions de fois au 2 mars 2023. Les nombreux commentaires réagissant au tweet indiquent que la vidéo a été prise au sérieux par de nombreuses personnes qui l’ont visionnée. 

– Compte-rendu de NewsGuard sur les risques de la désinformation du 7 mars 2023