Misinformation Monitor: novembre 2021

Un an plus tard, Facebook et Twitter ignorent toujours des avertissements concernant la moitié des comptes dont ils savent qu’ils diffusent de fausses informations sur le COVID-19, mettant ainsi en danger la santé de leurs utilisateurs.

Par Alex Cadier

Melissa Goldin, Chine Labbé, Marie Richter, Kendrick McDonald et Virginia Padovese ont aussi contribué à ce rapport.

Bienvenue dans le Misinformation Monitor, une newsletter gratuite de NewsGuard qui couvre la mésinformation, la désinformation, et les fausses informations en ligne avec des données exclusives en provenance de cinq pays.

Un post sur la page Facebook du site WakingTimes.com, qui publie de fausses allégations sur la santé et les sciences, relaie la fausse affirmation selon laquelle le nombre de cas de COVID-19 et de décès aurait été gonflé. (Capture d'écran via NewsGuard)

Facebook et Twitter n’ont pas protégé leurs utilisateurs contre 43 comptes qui ont continué à diffuser de fausses informations dangereuses sur le COVID-19 malgré leur signalement aux plateformes l’année dernière par NewsGuard. Les plateformes n’ont pris aucune mesure apparente concernant plus de la moitié des 85 comptes signalés par NewsGuard pour avoir diffusé des infox sur le virus au début de la pandémie. Près d’un quart d’entre eux ont vu leur audience augmenter, et ceux qui ont ainsi grossi ont collectivement gagné plus d’un million de nouveaux abonnés ou “likes”.

Cet échec à long terme des plateformes à répondre aux risques connus causés par leurs produits permet de comprendre pourquoi les législateurs et les régulateurs cherchent de plus en plus de solutions, sans espérer que ces entreprises protègent leurs utilisateurs par elles-mêmes.

En avril 2020, NewsGuard a publié quatre rapports sur les “super-propagateurs” de fausses informations sur le COVID-19 sur Facebook et Twitter aux États-Unis et en Europe. Ces rapports ont mis en évidence 85 comptes et pages sur les deux plateformes qui avaient partagé de fausses informations liées à la pandémie de COVID-19.

Facebook et Twitter ont été informés après leur publication des conclusions de ces rapports, qui ont fait l’objet de reportages dans lesquels les deux plateformes les ont commentées. Pourtant, en novembre 2021, 43 de ces comptes étaient toujours actifs et 19 avaient vu leur nombre de “likes” ou d’abonnés augmenter, comme NewsGuard a pu le constater. Ces 43 comptes ont tous diffusé de nouvelles fausses informations liées au COVID-19 depuis la publication de ces rapports.

FreieWelt.net, a site run by a nonprofit founded by Beatrix von Storch, deputy federal spokeswoman of Germany’s major far-right AfD party, is one of many German news sites spreading false and misleading claims about the Green party. (Screenshot via NewsGuard)

Sur les 26 comptes que NewsGuard a signalés sur Twitter, 13 étaient toujours actifs et 10 avaient gagné 358.927 nouveaux abonnés au total, soit une augmentation de plus de 23,7% en moyenne. Sur les 59 comptes que NewsGuard a signalés sur Facebook, 31 étaient toujours actifs et neuf avaient gagné 718.000 nouveaux “likes” au total, soit une augmentation d’un peu moins de 4% en moyenne.

Au total, les comptes Facebook et Twitter actifs publiant de fausses allégations qui ont vu leur audience augmenter ont gagné 1.076.927 nouveaux “likes” ou abonnés depuis avril 2020.

Cinq comptes Facebook et un compte Twitter inclus dans les rapports de NewsGuard d’avril 2020 n’ont pas été considérés comme actifs pour cette analyse, car ils ont, depuis ce signalement, cessé de publier des informations erronées sur le COVID-19.

Twitter a supprimé une proportion plus élevée (50%) des comptes signalés que Facebook (47,5%), mais ceux qui sont restés sur Twitter ont vu une augmentation bien plus élevée de leur nombre d’abonnés (23,7% en moyenne) que les pages et les comptes toujours actifs sur Facebook (3,9% en moyenne).

La tolérance continue des plateformes pour ce type de désinformation toxique pourrait s’expliquer par le fait qu’elles sont délibérément opaques sur la façon dont les décisions sont prises concernant la désinformation, la vérification des faits et la suppression de contenus. En octobre 2021, des documents divulgués par la lanceuse d’alerte de Facebook France Haugen ont montré que Facebook avait mené plusieurs grandes études sur la façon dont les infox sur le COVID-19 et la désinformation sur les vaccins se propagent sur ses plateformes. Ses propres recherches ont ​​montré que les chambres d’écho de la désinformation alimentaient l’hésitation vaccinale et que les publications provenant de sources d’information fiables, comme l’Organisation mondiale de la santé, étaient couvertes de commentaires d’activistes anti-vaccins sur les applications Facebook. Malgré les demandes d’experts, de législateurs et de l’administration du président Joe Biden aux Etats-Unis, Facebook a choisi de garder ces données secrètes.

On ne sait toujours pas comment les plateformes déterminent quelles pages sont supprimées et lesquelles ne le sont pas. Même lorsque les comptes partagent exactement les mêmes infox, certains sont supprimés tandis que d’autres ne le sont pas.

Le rapport de NewsGuard d’avril 2020 sur les “super-propagateurs” de désinformation sur le COVID-19 sur Twitter a trouvé quatre pages qui partageaient de fausses allégations établissant un lien entre la technologie 5G et la propagation de COVID-19. Encore une fois, les utilisateurs n’ont aucun moyen de savoir pourquoi certains comptes qui diffusent des informations erronées sont supprimés alors que d’autres restent sur la plateforme.

La suppression n’est en aucun cas une solution miracle, ni même le résultat le plus souhaitable. Les réseaux sociaux pourraient protéger leurs utilisateurs en étiquetant les comptes ayant partagé des informations erronées. Fournir davantage d’informations aux utilisateurs, et ne pas supprimer secrètement des contenus, leur permettrait de porter des jugements sur les pages auxquelles ils peuvent faire confiance car elles adhèrent aux normes basiques du journalisme, et celles dont il faut se méfier. Au lieu de cela, des politiques de suppression opaque sont utilisées de manière incohérente, et les utilisateurs ne savent pas comment les décisions concernant le contenu qu’ils voient sont prises.