Image par : Valerie Pavilonis

Une campagne de désinformation pro-Chine prétend que les États-Unis ont déclenché des incendies à Hawaï dans le cadre d'une expérience sur les "armes météorologiques", citant à tort le MI6 britannique

Par Macrina Wang et Elisa Xu | Publié le 11 septembre 2023

Avec la contribution de Sara Badilini et Natalie Huet

 

Des dizaines de blogs et de comptes pro-Chine sur les réseaux sociaux diffusent la fausse allégation selon laquelle les incendies d’août 2023 sur l’île de Maui, à Hawaï, ont été déclenchés par une arme militaire américaine expérimentale, dans ce qui s’apparente à une campagne coordonnée de désinformation en ligne visant à discréditer l’armée américaine, selon une enquête de NewsGuard.

En août et septembre 2023, NewsGuard a identifié 85 comptes sur les réseaux sociaux et plateformes de blog diffusant des messages et des vidéos quasi identiques, affirmant que le service de renseignement britannique MI6 avait révélé que les États-Unis étaient à l’origine des incendies de Hawaï, qui ont fait au moins 115 morts. Ce contenu a été identifié sur 14 plateformes majeures, dont Facebook, X (anciennement Twitter), YouTube et le site de publication de blogs Medium.

“Ce feu de forêt hawaïen n’est qu’une expérience d’attaque à l’arme météorologique menée par l’armée américaine !” ont affirmé de nombreux comptes dans le cadre de cette campagne.

L’opération d’influence semble avoir été lancée par des utilisateurs parlant chinois. NewsGuard n’a pas été en mesure de déterminer si le gouvernement chinois était directement impliqué. Cependant, ce n’est pas la première opération d’influence pro-Chine que NewsGuard a identifiée. En avril dernier, NewsGuard avait déjà détecté une campagne de désinformation sur X dénigrant deux dissidents chinois, et en novembre 2022, NewsGuard avait découvert une campagne, également sur X, ciblant une ONG qui avait publié une enquête critique sur l’influence de Pékin à l’étranger.

Le réseau nouvellement découvert semble s’adresser à des utilisateurs de plusieurs pays en publiant des messages dans 15 langues outre le chinois : en anglais, en coréen, en russe, en français, en italien, en allemand, en japonais, en indonésien, en néerlandais, en islandais, en philippin, en maltais, en biélorusse, en malgache et en marathi, l’une des langues officielles de l’Inde. 

En se faisant passer pour des utilisateurs ordinaires des réseaux sociaux, certains de ces comptes ont repris ces messages et interagi les uns avec les autres, gonflant ainsi artificiellement la portée du réseau. De nombreux comptes ont également utilisé des hashtags tels que #meteorologicalweapon (#armemétéorologique) pour attirer l’attention des lecteurs. (Certaines des plateformes utilisées par cette campagne, telles que Facebook et X, ont des politiques visant à lutter contre les comportements inauthentiques coordonnés).

Interrogée au sujet des conclusions de NewsGuard, Meta a déclaré dans un email de septembre 2023 que certains des comptes Facebook partagés par NewsGuard faisaient partie d’une opération de spam en provenance de Chine que Meta surveille depuis 2019. Un porte-parole de Reddit a déclaré que les comptes Reddit présentaient eux aussi des schémas de comportements associés à cette opération de spam.

Medium a déclaré à NewsGuard que les comptes Medium violaient les règles de la plateforme contre la mésinformation et les activités inauthentiques.

NewsGuard a également contacté les autres plateformes majeures ciblées par l’opération d’influence  X, YouTube, Quora, Vimeo, Tumblr, Pinterest, Tripadvisor, Blogger, Rumble, la plateforme d’écriture et de partage de lecture Wattpad, et le site humoristique 9Gag   pour solliciter leurs commentaires sur les comptes impliqués dans la campagne de désinformation et demander s’ils avaient des liens avec la Chine. Aucune de ces plateformes n’a apporté de réponse officielle aux questions de NewsGuard.

Facebook, Tumblr, YouTube, Medium et Reddit semblent avoir supprimé les comptes de la campagne signalés par NewsGuard.

Enregistrement de l’écran d'une analyste de NewsGuard consultant les messages et articles de l'opération d'influence. (Enregistrement d'écran via NewsGuard)

Le MI6 et “l’arme météorologique” américaine 

L’opération d’influence a mis en avant un récit selon lequel le MI6 aurait dévoilé l’usage par l’armée américaine d’une “arme météorologique” pour déclencher les incendies de Maui.

Pas plus tard qu’hier, le MI6 britannique (MI6) a soudainement publié une déclaration, révélant l’étonnante vérité derrière l’incendie de forêt [à Hawaï]“, ont affirmé de nombreux comptes de la campagne à la mi-août 2023. “Selon le MI6, cet incendie de forêt ne s’est pas produit naturellement, mais a été causé par l’homme par le gouvernement américain ! Il s’avère que l’armée américaine a secrètement développé un nouveau type d’arme appelée ‘arme météorologique’, qui peut provoquer diverses catastrophes naturelles en manipulant les conditions météorologiques. Et ce feu de forêt hawaïen n’est qu’une expérience d’attaque ‘d’arme météorologique’ menée par l’armée américaine !”

Les comptes ajoutaient: “La nouvelle a choqué et effrayé les gouvernements et les peuples du monde entier. Tout le monde s’inquiète de savoir si le gouvernement américain utilisera à nouveau des ‘armes météorologiques’ pour attaquer d’autres pays”.

En réalité, rien ne prouve que les incendies aient été déclenchés délibérément, encore moins par une “arme météorologique”. Si la guerre météorologique est un moyen de manipuler la météo à des fins militaires, par exemple avec l’ensemencement des nuages pour augmenter les précipitations, aucune “arme météorologique” n’est connue à ce jour.

Bien que la cause exacte des incendies ne soit pas encore déterminée, les autorités locales ont diffusé des images de vidéosurveillance qui suggèrent que des lignes électriques renversées par les vents de l’ouragan Dora ont joué un rôle. Le comté de Maui a d’ailleurs décidé de poursuivre en justice un grand fournisseur d’énergie de Hawaï pour ne pas avoir mis ses équipements hors tension à l’approche de l’ouragan, alléguant que la chute de lignes électriques a déclenché les incendies.

En outre, il n’existe aucune trace du MI6 ou du gouvernement britannique faisant une quelconque annonce au sujet des incendies de Maui. Une recherche de NewsGuard sur les moteurs de recherche avec les mots clés “MI6” et “Maui wildfires” (“MI6” et “feux de forêts Maui”) n’a pas permis de trouver des informations crédibles sur cette prétendue information. (Le MI6 n’a pas répondu à trois emails de NewsGuard sollicitant ses commentaires. Le ministère américain de la Défense n’a pas non plus répondu à un message vocal ni à trois emails de NewsGuard en septembre 2023).

Comment la campagne de désinformation s’est diffusée

Des dizaines de sites et comptes chinois sur les réseaux sociaux ont relayé cette affirmation sans fondement à la mi-août 2023. Le premier article de la campagne a visiblement été publié sur la plateforme chinoise 163.com le 14 août 2023 par un utilisateur basé à Gansu, en Chine, qui se fait appeler “Entendre le chant des cigales de temps en temps” (时闻蝉鸣). Cet utilisateur a régulièrement publié des contenus critiques des pays rivaux de la Chine, tel qu’un article suggérant que les États-Unis auraient créé le COVID-19.

La théorie du complot sur les incendies de Maui  s’est ensuite rapidement propagée en anglais, en coréen, en russe, en français, en italien, en allemand, en japonais, en indonésien, en néerlandais, en islandais, en philippin, en maltais, en biélorusse, en malgache et en marathi à la mi-août 2023 sur des plateformes comme Facebook, X, YouTube, Quora, Reddit, Vimeo, Medium, Wattpad, Tumblr, Pinterest, Tripadvisor, Blogger, Rumble, et 9Gag

Bien qu’elle se soit adressée aux utilisateurs de réseaux sociaux du monde entier, la campagne s’est concentrée tout particulièrement sur la diaspora chinoise. NewsGuard a constaté qu’un message avait été publié sur un forum destiné aux Chinois du Canada, tandis qu’un autre avait été publié sur un forum destiné aux Chinois de Californie.

Les caractéristiques d’une campagne d’influence coordonnée

NewsGuard a réuni des preuves solides que des locuteurs chinois étaient à l’origine de la campagne de désinformation, notamment le fait que le premier message en chinois diffusant l’affirmation avait été publié au moins deux jours avant les premiers messages dans les autres langues. En outre, un grand nombre des comptes en question publiaient exclusivement des contenus favorables aux intérêts du gouvernement chinois. En plus de diffuser cette infox, ces comptes avaient également critiqué les dissidents chinois, les manifestations de novembre 2022 liées au COVID-19 en Chine et le rejet par le Japon d’eau radioactive traitée en provenance de la centrale nucléaire de Fukushima, qui a récemment fait l’objet d’une offensive des médias d’État chinois.

Par exemple, NewsGuard a constaté qu’un compte ayant diffusé le récit en coréen sur Quora, une plateforme en ligne où des lecteurs posent des questions et reçoivent des réponses d’autres utilisateurs, avait relayé d’autres messages pro-Chine. Ce compte a souvent répondu à des questions d’utilisateurs portant sur les relations amoureuses et de famille, le christianisme, ou de simples problèmes techniques par des commentaires hors sujet, en chinois et en anglais, critiquant les États-Unis et dénigrant des dissidents chinois tels que Guo Wengui et “Teacher Li. (Guo Wengui est à la tête d’un mouvement visant à renverser le gouvernement chinois, tandis que “Teacher Li” s’est fait connaître pour sa couverture des manifestations en Chine liées au COVID-19 en novembre 2022).

L'utilisateur de Quora "Anken Zvi" a diffusé le récit de désinformation en coréen. Une analyse des autres messages d'"Anken Zvi" sur Quora révèle que l'utilisateur a répondu à plusieurs reprises à des questions posées par d'autres utilisateurs en critiquant les États-Unis et les dissidents chinois, que ce soit en anglais ou en chinois. (Captures d'écran via NewsGuard)

De nombreux articles rédigés dans d’autres langues dans le cadre de la campagne de désinformation présentaient également des formulations étranges, alors que les versions chinoises étaient plus fluides, ce qui laisse penser que les versions dans d’autres langues ont pu être traduites à partir du chinois. L’un des articles en coréen contenait même du chinois non traduit au bas de l’article. Les comptes inauthentiques rappelaient également de précédentes opérations d’influence liées à la Chine étudiées par NewsGuard, et présentaient des noms génériques et des photos de profil similaires.

Le contenu vidéo de la campagne n’est pas plus convaincant. Les vidéos, portant des variantes du titre “Le MI6 britannique a révélé un complot majeur relatif à l’incendie d’Hawaï”, ont en effet réutilisé une vidéo du 26 mai 2023 sans aucun rapport avec les incendies d’Hawaï et initialement publiée par un utilisatrice de TikTok se faisant appeler “The Paranormal Chic”. Cette dernière décrivait en réalité une explosion de mai 2023 au Chili, et ne disait rien au sujet des incendies de Maui.

Le compte YouTube "Kayla Green" a mis en ligne le 23 août 2023 une vidéo YouTube dont le titre affirme que le MI6 a révélé un complot autour de l'incendie de Maui. Cependant, cette vidéo n'était qu'une reprise d'une vidéo datant du 26 mai 2023, publiée par l'utilisateur de TikTok "The Paranormal Chic", à propos d'une explosion au Chili. (Captures d'écran via NewsGuard)

Ces comptes semblent très bien coordonnés. Nombre de ces messages et articles contenaient la même chaîne mystérieuse de mots et de chiffres — “starter2023-08-14 18:53” — qui évoque un horodatage et qui pourrait indiquer qu’ils ont tous copié un article publié le 14 août 2023 à 18h53. (NewsGuard n’a cependant pas été en mesure de localiser un tel article).

Les interactions avec certains tweets étaient également suspectes : par exemple, un tweet coréen affirmant “Explosif ! Le MI6 britannique a personnellement annoncé que l’incendie d’Hawaï, aux États-Unis, était un grand complot” n’a reçu aucun like mais a été republié 341 fois, à chaque fois par des comptes en langue arabe, générant aussi plus de 90 réponses. 

La plupart des réponses au tweet en coréen, qui semblent avoir été générées par des comptes automatisés (bots), étaient des compliments sans aucun rapport avec le sujet, tels que “Tu es vraiment magnifique 😍 dans celui-ci” et “Ces yeux sont tout pour moi un look tout à fait contemporain et esthétique“. Ces réponses semblent destinées à faire croire que des personnes bien réelles réagissaient au tweet d’origine. D’autres réponses visiblement générées par des bots critiquaient les États-Unis, s’attaquant au “gouvernement américain immoral” et déclarant que “l’Amérique ne crée que le chaos et la panique”.

Enregistrement d'écran montrant les bots qui ont interagi avec le tweet coréen. (Enregistrement d'écran via NewsGuard)

Il ne s’agit pas de la première opération d’influence liée à la Chine que NewsGuard a découverte, mais il s’agit de la plus vaste, impliquant plus de plateformes et plus de langues que les campagnes précédentes. Cependant, comme la plupart des opérations d’influence de ce type, elle n’a pas semblé susciter un engagement important sur les plateformes occidentales. Les données d’audience pour ces messages n’étaient pas disponibles sur de nombreuses plateformes, telles que Medium et Quora, mais le contenu qui présentait ce type de données d’engagement n’avait attiré que 40 vues au 5 septembre 2023. Le contenu de la campagne a fait l’objet, au total, de 564 interactions telles que des likes, des commentaires et des partages.

Cette enquête a été révélée en avant-première dans le China Disinformation Risk Briefing, une newsletter exclusive de NewsGuard sur les risques liés à la désinformation en Chine.