Misinformation Monitor: novembre 2021

Un an plus tard, Facebook et Twitter ignorent toujours des avertissements concernant la moitié des comptes dont ils savent qu’ils diffusent de fausses informations sur le COVID-19, mettant ainsi en danger la santé de leurs utilisateurs.

Par Alex Cadier

Melissa Goldin, Chine Labbé, Marie Richter, Kendrick McDonald et Virginia Padovese ont aussi contribué à ce rapport.

Bienvenue dans le Misinformation Monitor, une newsletter gratuite de NewsGuard qui couvre la mésinformation, la désinformation, et les fausses informations en ligne avec des données exclusives en provenance de cinq pays.

Un post sur la page Facebook du site WakingTimes.com, qui publie de fausses allégations sur la santé et les sciences, relaie la fausse affirmation selon laquelle le nombre de cas de COVID-19 et de décès aurait été gonflé. (Capture d'écran via NewsGuard)

Facebook et Twitter n’ont pas protégé leurs utilisateurs contre 43 comptes qui ont continué à diffuser de fausses informations dangereuses sur le COVID-19 malgré leur signalement aux plateformes l’année dernière par NewsGuard. Les plateformes n’ont pris aucune mesure apparente concernant plus de la moitié des 85 comptes signalés par NewsGuard pour avoir diffusé des infox sur le virus au début de la pandémie. Près d’un quart d’entre eux ont vu leur audience augmenter, et ceux qui ont ainsi grossi ont collectivement gagné plus d’un million de nouveaux abonnés ou “likes”.

Cet échec à long terme des plateformes à répondre aux risques connus causés par leurs produits permet de comprendre pourquoi les législateurs et les régulateurs cherchent de plus en plus de solutions, sans espérer que ces entreprises protègent leurs utilisateurs par elles-mêmes.

En avril 2020, NewsGuard a publié quatre rapports sur les “super-propagateurs” de fausses informations sur le COVID-19 sur Facebook et Twitter aux États-Unis et en Europe. Ces rapports ont mis en évidence 85 comptes et pages sur les deux plateformes qui avaient partagé de fausses informations liées à la pandémie de COVID-19.

Facebook et Twitter ont été informés après leur publication des conclusions de ces rapports, qui ont fait l’objet de reportages dans lesquels les deux plateformes les ont commentées. Pourtant, en novembre 2021, 43 de ces comptes étaient toujours actifs et 19 avaient vu leur nombre de “likes” ou d’abonnés augmenter, comme NewsGuard a pu le constater. Ces 43 comptes ont tous diffusé de nouvelles fausses informations liées au COVID-19 depuis la publication de ces rapports.

Facebook et Twitter pourraient prendre plusieurs mesures efficaces pour atténuer les dommages causés par ces comptes, au lieu des mesures opaques et manifestement incohérentes consistant à simplement censurer et supprimer des posts ou des comptes, ou à diminuer leur visibilité. Parmi les mesures qui pourraient être prises, on peut citer la vérification des posts individuels, bien que le fact-checking soit difficile à faire de manière systématique, et seulement efficace une fois que les fausses allégations se sont largement répandues. Les plateformes pourraient également adopter la mesure plus efficace consistant à fournir de manière proactive des évaluations et des labels expliquant à leurs utilisateurs qu’une source dans leur fil d’actualité ou dans les groupes Facebook est un propagateur connu de fausses informations, les invitant ainsi à la prudence. Les plateformes pourraient ouvrir leurs produits à des tiers indépendants fournissant des indications sur la fiabilité des sources afin que les utilisateurs aient le choix d’accéder à des protections de sécurité. 

Parmi les infox partagées par les comptes signalés par NewsGuard en avril 2020 et qui sont toujours actifs sur Facebook ou Twitter, on peut citer : 

  • Le COVID-19 n’existe pas
  • Bill Gates a annoncé que les vaccins anti-COVID-19 entraîneraient 700.000 décès
  • La technologie 5G est liée à la propagation du COVID-19
  • Le COVID-19 a été prédit dans une simulation
  • La vitamine C peut empêcher le COVID-19
  • Le COVID-19 est une “arme biologique qui a été créée dans un laboratoire militaire américain”
  • Les personnes en bonne santé “ne sont pas affectées par” le COVID-19
  • Les vaccins anti-COVID-19 comprennent une technologie de suivi par micropuce financée par Bill Gates
Le compte Twitter du site d'extrême droite EgaliteEtReconciliation.fr affirme en octobre 2021 que depuis le début de la vaccination, "on voit une veritable hécatombe". (Capture d'écran par NewsGuard)

Sur les 26 comptes que NewsGuard a signalés sur Twitter, 13 étaient toujours actifs et 10 avaient gagné 358.927 nouveaux abonnés au total, soit une augmentation de plus de 23,7% en moyenne. Sur les 59 comptes que NewsGuard a signalés sur Facebook, 31 étaient toujours actifs et neuf avaient gagné 718.000 nouveaux “likes” au total, soit une augmentation d’un peu moins de 4% en moyenne.

Au total, les comptes Facebook et Twitter actifs publiant de fausses allégations qui ont vu leur audience augmenter ont gagné 1.076.927 nouveaux “likes” ou abonnés depuis avril 2020.

Cinq comptes Facebook et un compte Twitter inclus dans les rapports de NewsGuard d’avril 2020 n’ont pas été considérés comme actifs pour cette analyse, car ils ont, depuis ce signalement, cessé de publier des informations erronées sur le COVID-19.

Twitter a supprimé une proportion plus élevée (50%) des comptes signalés que Facebook (47,5%), mais ceux qui sont restés sur Twitter ont vu une augmentation bien plus élevée de leur nombre d’abonnés (23,7% en moyenne) que les pages et les comptes toujours actifs sur Facebook (3,9% en moyenne).

Différences de traitement

Les mesures prises par Twitter et Facebook contre ces pages ont été incohérentes, selon leur langue et pays d’origine. Twitter a supprimé plus de la moitié des comptes signalés aux États-Unis, tandis que tous les comptes francophones – sauf un – étaient toujours actifs. Même constat sur Facebook. Les États-Unis ont enregistré la plus grande proportion de suppressions, avec 38% des comptes signalés supprimés, tandis que seuls 17% des comptes francophones ont été supprimés.

Le rapport de NewsGuard d’avril 2020 sur les “super-propagateurs” de fausses informations sur le COVID-19 sur Facebook a trouvé au moins neuf pages qui partageaient la fausse affirmation selon laquelle la vitamine C peut guérir le COVID-19. Sur ces neuf, quatre ont été retirées et cinq sont toujours actives. Facebook ne donne aucune indication à ses utilisateurs sur les raisons pour lesquelles certaines pages sont autorisées à diffuser des infox tandis que d’autres sont supprimées.

Ces résultats font écho à deux autres rapports récents de NewsGuard. Un rapport d’octobre 2021 produit pour l’Organisation Mondiale de la Santé et d’autres ONG, autorités sanitaires, régulateurs et responsables gouvernementaux en Europe et aux États-Unis a montré que 20 comptes, pages ou groupes sur Facebook connus pour diffuser de fausses informations sur le COVID-19 et les vaccins avaient gagné 370.000 nouveaux abonnés en un an. L’autre rapport, publié en septembre 2021, a montré que l’application de partage de vidéos TikTok avait présenté des informations erronées sur les vaccins à des enfants dès 9 ans, sans qu’ils suivent de comptes ou utilisent la barre de recherche.

La tolérance continue des plateformes pour ce type de désinformation toxique pourrait s’expliquer par le fait qu’elles sont délibérément opaques sur la façon dont les décisions sont prises concernant la désinformation, la vérification des faits et la suppression de contenus. En octobre 2021, des documents divulgués par la lanceuse d’alerte de Facebook France Haugen ont montré que Facebook avait mené plusieurs grandes études sur la façon dont les infox sur le COVID-19 et la désinformation sur les vaccins se propagent sur ses plateformes. Ses propres recherches ont ​​montré que les chambres d’écho de la désinformation alimentaient l’hésitation vaccinale et que les publications provenant de sources d’information fiables, comme l’Organisation mondiale de la santé, étaient couvertes de commentaires d’activistes anti-vaccins sur les applications Facebook. Malgré les demandes d’experts, de législateurs et de l’administration du président Joe Biden aux Etats-Unis, Facebook a choisi de garder ces données secrètes.

On ne sait toujours pas comment les plateformes déterminent quelles pages sont supprimées et lesquelles ne le sont pas. Même lorsque les comptes partagent exactement les mêmes infox, certains sont supprimés tandis que d’autres ne le sont pas.

Le rapport de NewsGuard d’avril 2020 sur les “super-propagateurs” de désinformation sur le COVID-19 sur Twitter a trouvé quatre pages qui partageaient de fausses allégations établissant un lien entre la technologie 5G et la propagation de COVID-19. Encore une fois, les utilisateurs n’ont aucun moyen de savoir pourquoi certains comptes qui diffusent des informations erronées sont supprimés alors que d’autres restent sur la plateforme.

La suppression n’est en aucun cas une solution miracle, ni même le résultat le plus souhaitable. Les réseaux sociaux pourraient protéger leurs utilisateurs en étiquetant les comptes ayant partagé des informations erronées. Fournir davantage d’informations aux utilisateurs, et ne pas supprimer secrètement des contenus, leur permettrait de porter des jugements sur les pages auxquelles ils peuvent faire confiance car elles adhèrent aux normes basiques du journalisme, et celles dont il faut se méfier. Au lieu de cela, des politiques de suppression opaque sont utilisées de manière incohérente, et les utilisateurs ne savent pas comment les décisions concernant le contenu qu’ils voient sont prises.

Le compte Twitter de ByoBlu.com, un site italien dirigé par le blogueur Claudio Messora, a affirmé à tort que "ceux qui se font vacciner contre le COVID-19 ont plus de chances de mourir que ceux qui ne se font pas vacciner". (Capture d'écran via NewsGuard)

Résumé des constats

NewsGuard a signalé 85 comptes en avril 2020 pour diffusion de fausses informations sur le COVID-19. 43 d’entre eux n’ont fait l’objet d’aucune mesure à leur encontre, et 19 ont vu leur nombre d’abonnés augmenter de 13,8% en moyenne. Tous les comptes pour lesquels aucune mesure visible n’a été mise en place ont continué à diffuser de fausses informations.

Sur les 26 comptes que NewsGuard a signalés sur Twitter pour avoir diffusé de fausses informations sur le COVID-19, 13 n’ont fait l’objet d’aucune mesure à leur encontre, et 10 d’entre eux ont vu leur nombre d’abonnés augmenter de 358.927 au total, soit une augmentation de 23,7% en moyenne.

Sur les 59 comptes que NewsGuard a signalés sur Facebook pour avoir diffusé de fausses informations sur le COVID-19, 31 n’ont fait l’objet d’aucune mesure à leur encontre, et 9 d’entre eux ont vu leur nombre de “likes” augmenter de 718.000 au total, soit une augmentation de 3,9% en moyenne.

 

Consultez les quatre rapports d’avril 2020 auxquels il est fait référence ici (en anglais): 

 

Correction : Un version précédente de ce rapport indiquait par erreur dans le “Résumé des constats” que les  85 comptes signalés par NewsGuard pour diffusion de fausses informations sur le COVID-19 avaient tous continué à en diffuser. En réalité, comme le rapport le dit lui-même, 43 des 85 comptes signalés ont continué à publier de fausses informations. NewsGuard regrette cette erreur. 

Envoyez-nous vos idées ou vos questions. 

Credit de l’image principale : Alexander Shatov sur Unsplash