Image via Canva

Misinformation Monitor: décembre 2023

Bienvenue dans le Misinformation Monitor, une newsletter qui couvre la mésinformation, la désinformation, et les fausses informations en ligne avec des données exclusives en provenance de neuf pays. Inscrivez-vous ici pour recevoir cette newsletter par email, et téléchargez l’extension de navigateur NewsGuard.

L’année où l’IA a démultiplié les infox : 2023 vue par NewsGuard

Par Sara Badilini, Jack Brewster, Eric Effron, Zack Fishman, Sam Howard, Natalie Huet, Chine Labbé, Eva Maitland, Virginia Padovese, Leonie Pfaller, Giulia Pozzi, McKenzie Sadeghi et Roberta Schmid | Publié le 27 decembre 2023

L’essor de l’intelligence artificielle en 2023 a transformé le paysage de la mésinformation, en fournissant aux acteurs malveillants de nouveaux outils pour créer des articles, des images, des sons, des vidéos et même des sites web entiers à l’apparence authentique afin de promouvoir des récits faux ou polarisants destinés à semer la confusion et la méfiance.

NewsGuard a suivi de près la manière dont les outils d’IA sont utilisés pour diffuser toutes sortes de narratifs, allant de la propagande russe, chinoise et iranienne aux informations erronées en matière de santé et aux fausses affirmations au sujet des conflits en Ukraine et à Gaza, épaississant encore un peu plus le brouillard de la guerre. À mesure que ces outils s’améliorent, les faux récits produits par l’IA générative deviennent plus persuasifs et plus dangereux.

Les analystes de NewsGuard ont réalisé des audits des chatbots d’IA générative, tels que ChatGPT d’OpenAI, pour voir comment ils pouvaient être incités (ou manipulés) à générer de fausses allégations, en contournant les garde-fous en place. En août, par exemple, NewsGuard a testé ChatGPT-4 et Google Bard en les encourageant à relayer un échantillon aléatoire de 100 mythes tirés de sa base de données des principaux faux récits circulant en ligne, appelés “Misinformation Fingerprints” (Empreintes de la Mésinformation). ChatGPT-4 a généré 98 mythes sur 100, tandis que Bard en a produit 80 sur 100.

Nous avons également découvert un phénomène croissant par lequel des acteurs mal intentionnés créent des sites web entiers générés par l’IA, qui fonctionnent avec peu voire pas de supervision humaine. À ce jour, l’équipe de NewsGuard a identifié 614 sites d’information non fiables générés par l’IA, surnommés “UAINS” (pour “Unreliable AI-generated News Sites” en anglais), couvrant 15 langues : l’arabe, le chinois, le tchèque, le néerlandais, l’anglais, le français, l’allemand,  l’indonésien, l’italien, le coréen, le portugais, l’espagnol, le tagalog (une langue des Philippines), le thaï et le turc (plus d’infos ci-dessous).

Dans ce rapport, nous mettons en avant certaines des utilisations les plus préjudiciables de l’IA, les faux récits les plus partagés de l’année sur les sites évalués par NewsGuard, et un graphique montrant la croissance des sites non fiables générés par l’IA au fil du temps.

Les utilisations les plus “créatives” de l’IA pour générer de fausses informations

Bien utilisés, les outils d’IA peuvent aider les gens à devenir plus productifs, à analyser des ensembles gigantesques de données, et à diagnostiquer des maladies. Cependant, entre de mauvaises mains, les logiciels d’IA peuvent donner un coup d’accélérateur sans précédent à la mésinformation, en fournissant aux acteurs malveillants un contingent illimité de créateurs de contenu, sous la forme de modèles d’IA capables de (et enclins à) produire instantanément des textes, des images, des vidéos et des sons faux ou trompeurs. L’IA a ainsi créé le principal futur “super-propagateur de fausses informations”.

Ci-dessous, nous mettons en lumière certaines des utilisations les plus marquantes de l’IA pour générer des fausses allégations en 2023, sélectionnées par les analystes et éditeurs de NewsGuard.

Obama ? Non. Des outils d’IA audio utilisés pour inonder TikTok de vidéos conspirationnistes

 

Capture d’écran d’une vidéo TikTok montrant un “Barack Obama” généré par l’IA lisant une fausse “déclaration” sur la mort de Tafari Campbell. (Capture d’écran via NewsGuard)

En septembre, NewsGuard a identifié un réseau de 17 comptes TikTok utilisant un générateur hyperréaliste de voix par l’IA pour amasser des centaines de millions de vues sur des contenus conspirationnistes. Ce réseau, première campagne de mésinformation virale sur TikTok utilisant l’IA dans l’audio selon NewsGuard, semble avoir eu recours à un logiciel de synthèse vocale d’ElevenLabs pour générer instantanément une narration et d’autres voix dans ces vidéos. L’une d’elles, qui relayait l’affirmation sans fondement selon laquelle l’ancien président américain Barack Obama serait impliqué dans la mort de son chef cuisinier personnel Tafari Campbell, montrait un “Obama” généré par l’IA lisant une fausse “déclaration” sur la mort de Tafari Campbell. Lire le rapport de NewsGuard (en anglais) ici.

Un robot plagiaire ? Quand ChatGPT et d’autres chatbots réécrivent de manière trompeuse les contenus de grands médias

En août, NewsGuard a repéré une nouvelle technique par laquelle les sites de piètre qualité utilisent l’IA pour copier le contenu de médias bien connus sans se faire repérer. NewsGuard a identifié 37 sites utilisant des chatbots tels que ChatGPT pour réécrire des articles d’actualité initialement parus dans des médias tels que CNN, le New York Times et Reuters, sans en mentionner la source. Il est difficile de décrire cette nouvelle pratique, et notamment de savoir si les articles réécrits à l’aide de l’IA constituent ou non un “contenu original”. Au mieux, on pourrait parler d’“agrégation efficace”. Au pire, de “plagiat surpuissant”. Lire le rapport de NewsGuard ici.

Citer une réponse de ChatGPT pour relayer une infox concernant… des chameaux

En avril, une vidéo du média étatique chinois China Daily (Score de confiance NewsGuard : 44.5/100) a affirmé, sans aucune preuve, qu’un laboratoire au Kazakhstan prétendument géré par les États-Unis mènerait des recherches secrètes sur la transmission de virus des chameaux aux hommes en vue de nuire à la Chine. La vidéo citait une prétendue confirmation de cette affirmation par ChatGPT. Lire le rapport de NewsGuard (en anglais) ici.

2023 : l’essor des sites d’information non fiables générés par l’IA

En mai 2023, NewsGuard était le premier à identifier l’émergence de ce qu’il appelle les sites d’actualité non fiables générés par l’IA (en anglais Unreliable AI-generated News Sites ou UAINS). Ces sites — qui semblent constituer la nouvelle génération de fermes de contenu — ont plus que décuplé cette année, passant de 49 domaines en mai 2023 à plus de 600 en décembre 2023.

Pour être qualifiés de sites d’actualité non fiables générés par l’IA, les sites doivent remplir les quatre critères suivants : 

  • Il existe des preuves évidentes qu’une part importante du contenu du site est produite par l’IA.
  • Il y a également de fortes raisons de penser que le contenu est publié sans contrôle humain notable.
  • Le site est présenté de telle sorte qu’un lecteur moyen pourrait supposer que son contenu est produit par des rédacteurs ou des humains, du fait de sa mise en page, d’un nom générique ou anodin, ou d’autres éléments typiques des sites d’actualité et d’information.
  • Le site n’indique pas clairement que son contenu est produit par l’IA.
NewsGuard a identifié plus de 600 sites d’actualité non fiables générés par l’IA en 2023. (Graphique NewsGuard)

Les mythes les plus partagés sur les sites évalués par NewsGuard en français, allemand et italien

En 2023, NewsGuard a identifié et démystifié des centaines de nouveaux mythes circulant en ligne. Ci-dessous, NewsGuard a dressé une liste des faux récits les plus répandus cette année sur les sites francophones, germanophones et italophones évalués par NewsGuard dans quatre catégories : la santé, la science, la guerre Russie-Ukraine et la guerre Israël-Hamas. Ces faux récits, apparus en 2023, sont ceux qui ont été relayés à la fois par le plus grand nombre de sites francophones évalués par NewsGuard (y compris des sites français et québécois, entre autres); en allemand (y compris sur des sites basés en Autriche, en Allemagne et en Suisse), et en italien. Chacun de ces mythes est apparu sur au moins 20 sites.

La guerre Russie-Ukraine

Fausse information : L’Ukraine a vendu au Hamas des armes qui lui ont été données par l’Occident

Cette affirmation sans fondement, qui entremêle deux guerres majeures, est apparue sur 24 sites évalués par NewsGuard en français, en allemand et en italien. Elle a émergé quelques jours seulement après l’attaque meurtrière du Hamas contre Israël, le 7 octobre 2023, lorsqu’une vidéo virale promue par des comptes pro-russes sur les réseaux sociaux prétendait montrer le mouvement islamiste palestinien remerciant l’Ukraine de lui avoir envoyé des armes occidentales. En réalité, rien n’indique que les armes montrées dans la vidéo proviennent d’Ukraine, ni même qu’elles aient été utilisées par le Hamas. Rien n’indique non plus que l’Ukraine ait envoyé des armes occidentales au Hamas, ni que des armes aient quitté illégalement l’Ukraine, selon des experts en commerce d’armes.

Des comptes pro-Kremlin ont également diffusé une fausse vidéo de la BBC, affirmant que le média d’investigation Bellingcat avait révélé que l’Ukraine avait passé des armes en contrebande au Hamas. La BBC et Bellingcat ont démenti être les auteurs de cette vidéo et de ces affirmations. Frank Slijper, chercheur sur le commerce des armes à la PAX, une organisation basée aux Pays-Bas qui œuvre pour la protection des civils contre la violence armée, a déclaré dans un email envoyé le 10 octobre 2023 à NewsGuard que de telles affirmations visaient à “diviser les sociétés qui soutiennent l’Ukraine (et au-delà)”.

La guerre Israël-Hamas

Fausse information : L’attaque d’Israël par le Hamas en octobre 2023 était une opération sous “faux drapeau” orchestrée par Israël et ses alliés pour justifier l’invasion de Gaza

Cette théorie du complot, qui est apparue sur 22 sites évalués par NewsGuard en français, allemand ou italien, a fait surface quelques heures seulement après que les assaillants du Hamas ont pris d’assaut Israël dans une attaque coordonnée et meurtrière au matin du 7 octobre 2023. La théorie selon laquelle cette attaque aurait été orchestrée par Israël contre ses propres citoyens s’est propagée sur des sites jugés peu fiables par NewsGuard, notamment Mondialisation.ca, GospaNews.net et Uncutnews.ch.

En réalité, l’assaut surprise du 7 octobre contre Israël a tué plus de 1.200 personnes, selon les autorités israéliennes. L’attaque, que le Hamas a menée en lançant des roquettes sur Israël et en déployant des parapentistes armés, des camions et des motos, a été documentée par des images de caméras de sécurité et de drones, ainsi que par des combattants du Hamas, des victimes et des témoins sur place. Les dirigeants du Hamas ont eux-mêmes revendiqué l’attaque, déclarant au New York Times qu’ils l’avaient lancée parce qu’ils craignaient que la perspective de la création d’un État palestinien s’éloigne.

Science

Fausse information : Une arme issue d’un programme américain de recherche militaire a provoqué le tremblement de terre de 2023 en Turquie

Ce faux récit, relayé par 23 sites évalués par NewsGuard en français, allemand ou italien, a vu le jour après le séisme de magnitude 7,8 qui a fait des milliers de morts et de blessés dans le sud-est de la Turquie et le nord-ouest de la Syrie, le 6 février 2023. Des sites d’information et des utilisateurs des réseaux sociaux ont attribué la catastrophe au programme HAARP (High-frequency Active Auroral Research Program en anglais), un programme de recherche basé en Alaska et créé par l’armée américaine pour étudier l’ionosphère de la Terre.

En réalité, le séisme est le résultat de la pression accumulée pendant des siècles sur les plaques tectoniques situées sous la Turquie, qui a fini par les faire glisser, comme l’ont expliqué à la radio publique américaine NPR des experts sismologues d’observatoires universitaires et de centres de recherche du monde entier. En outre, la technologie HAARP ne peut pas déclencher de tremblements de terre. David Malaspina, chercheur au Laboratoire de physique atmosphérique et spatiale de l’université du Colorado-Boulder (États-Unis), a déclaré à Reuters en février 2023 que les ondes radio de HAARP ne pouvaient pas provoquer de tremblement de terre, puisqu’elles pénètrent à moins d’un centimètre de profondeur dans le sol, tandis que le séisme en Turquie a démarré à environ 17 kilomètres de profondeur.

Santé

Fausse information : La Thaïlande annule son contrat pour le vaccin Pfizer contre le COVID-19 parce que le vaccin a plongé la princesse thaïlandaise dans le coma

Cette affirmation, qui est apparue sur 21 sites évalués par NewsGuard en français, en allemand ou en italien, semble provenir de Sucharit Bhakdi, un microbiologiste germano-thaï qui a souvent relayé de fausses allégations au sujet des vaccins contre le COVID-19. Dans une vidéo postée sur Rumble le 28 janvier 2023, Sucharit Bhakdi a affirmé que le gouvernement thaïlandais envisageait d’annuler ses contrats avec Pfizer en raison des prétendus effets du vaccin sur la princesse Bajrakitiyabha, fille aînée du roi de Thaïlande — qui s’est évanouie le 15 décembre 2022 “en raison d’une arythmie cardiaque grave résultant d’une inflammation consécutive à une infection par un mycoplasme”, selon un article de Reuters daté du 8 janvier 2023. “Selon toute vraisemblance, la princesse est victime de cette injection, comme tant d’autres personnes dans le monde”, a déclaré Sucharit Bhakdi.

Cependant, les autorités thaïlandaises ont déclaré que la Thaïlande n’avait pas l’intention de modifier ses contrats avec Pfizer concernant ses achats de vaccins contre le COVID-19. Par ailleurs, l’état de la princesse Bajrakitiyabha était dû à une infection bactérienne, et non à une vaccination, comme l’a rapporté l’Associated Press.