Misinformation Monitor: novembre 2021

A un anno di distanza, Facebook e Twitter continuano a ignorare le segnalazioni su circa la metà degli account che hanno pubblicato misinformazione sul COVID-19, mettendo a rischio la salute dei loro utenti

A cura di Alex Cadier
Con la collaborazione di 
Melissa Goldin, Chine Labbé, Kendrick McDonaldVirginia Padovese e Marie Richter

Una nuova edizione del Misinformation Monitor di NewsGuard, una newsletter sulla misinformazione con dati esclusivi provenienti da cinque paesi. Abbonati per ricevere il Misinformation Monitor sulla tua casella di posta o scarica NewsGuard per il tuo browser.

Un post della pagina Facebook del sito WakingTimes.com, che ha pubblicato informazioni false su salute e scienza. Ha condiviso un articolo che affermava falsamente che i numeri di casi e decessi di COVID-19 sono stati gonfiati. Screenshot di NewsGuard

Facebook e Twitter non hanno protetto i propri utenti da 43 account che hanno continuato a diffondere pericolosa misinformazione sul COVID-19, nonostante tali account siano stati segnalati loro da NewsGuard oltre un anno fa. Degli 85 account segnalati da NewsGuard per aver diffuso misinformazione sul virus all’inizio della pandemia, più della metà non ha visto intrapresa alcuna azione concreta da parte delle piattaforme. Quasi un quarto di questi account è cresciuto guadagnando nel complesso oltre un milione di nuovi follower e like.

Questa inazione prolungata delle piattaforme nel fronteggiare i danni causati dai loro servizi aiuta a capire perché i legislatori e le autorità di regolamentazione cercano sempre più soluzioni concrete, che vadano oltre la speranza che queste aziende agiscano volontariamente per proteggere i propri utenti.

Nell’aprile 2020, NewsGuard ha pubblicato quattro report sui super-diffusori di misinformazione sul COVID-19 su Facebook e Twitter negli Stati Uniti e in Europa. Questi report hanno evidenziato 85 account e pagine che avevano condiviso informazioni inequivocabilmente false relative alla pandemia di COVID-19.

Entrambe le piattaforme sono state informate di questi report dopo la pubblicazione e sia Facebook che Twitter hanno commentato i risultati delle ricerche di NewsGuard. Nonostante ciò, nel novembre 2021, 43 di questi account erano ancora attivi e 19 di essi hanno incrementato il numero di like o follower, stando al controllo effettuato da NewsGuard. Tutti e 43 gli account da allora hanno diffuso altre informazioni false relative al COVID-19.

Facebook e Twitter potrebbero adottare una serie di misure efficaci per mitigare il danno posto da questi account, che vadano al di là della strategia poco trasparente, inaffidabile e palesemente incoerente di censurarli, semplicemente rimuovendoli o nascondendo il numero di utenti che li visualizzano. Queste strategie potrebbero includere il fact-checking dei singoli post, sebbene il fact-checking sia difficile da attuare su ampia scala ed entri in atto solo dopo che le false affermazioni si sono ampiamente diffuse. Le piattaforme potrebbero anche adottare la strategia efficace e più facilmente attuabile su larga scala di fornire in modo proattivo valutazioni e schede informative che spieghino ai propri utenti che una fonte nei loro feed di notizie o nei loro gruppi di Facebook è un noto diffusore di informazioni false e li invitino a procedere con cautela. Le piattaforme potrebbero aprire i loro prodotti a terze parti indipendenti che forniscano indicazioni sull’affidabilità delle fonti in modo che gli utenti abbiano la possibilità di accedere alle protezioni di sicurezza e ad altre soluzioni middleware.

Le affermazioni false condivise dagli account segnalati da NewsGuard nell’aprile 2020, che sono ancora attivi su Facebook o Twitter, includevano:

  • Il COVID-19 non esiste
  • Bill Gates ha annunciato che i vaccini contro il COVID-19 avrebbero provocato 700.000 morti
  • La tecnologia 5G è collegata alla diffusione del COVID-19
  • Il COVID-19 è stato previsto in una simulazione
  • La vitamina C può prevenire il COVID-19
  • Il COVID-19 è un’“arma biologica creata in un laboratorio militare americano”
  • Le persone sane “non subiscono danni” dal COVID-19
  • I vaccini contro il COVID-19 hanno una tecnologia di tracciamento con microchip finanziata da Bill Gates
L'account Twitter del sito di estrema destra EgaliteEtReconciliation.fr ha affermato falsamente che "abbiamo assistito a un vero massacro" da quando sono iniziate le vaccinazioni contro il COVID-19. Screenshot di NewsGuard

Nel novembre 2021, dei 26 account Twitter segnalati da NewsGuard, 13 erano ancora attivi e 10 di essi hanno guadagnato 358.927 nuovi follower. Dei 59 account Facebook segnalati da NewsGuard, 31 erano ancora attivi e nove hanno guadagnato complessivamente 718.000 nuovi like.

Nel loro insieme, gli account Facebook e Twitter che hanno pubblicato informazioni false e che sono cresciuti, hanno guadagnato 1.076.927 nuovi like o follower da aprile 2020.

Cinque account Facebook e un account Twitter inclusi nei report di NewsGuard di aprile 2020 non sono stati considerati in questa analisi poiché da allora hanno smesso di pubblicare misinformazione sul COVID-19.

Sebbene Twitter abbia rimosso una percentuale maggiore (50%) degli account segnalati rispetto a Facebook (47,5%), quelli che sono rimasti attivi su Twitter hanno visto un aumento significativamente superiore del loro seguito (23,7% in media) rispetto alle pagine e agli account rimasti attivi su Facebook (3,9% in media).

Tweet di ByoBlu.com, il sito di Claudio Messora ( https://www.newsguardtech.com/wp-content/uploads/2022/03/ByoBlu-20220318.pdf ) Screenshot di NewsGuard

Incongruenze tra Paesi

Le azioni di Twitter e Facebook contro queste pagine sono state poco uniformi: diverse a seconda del paese di origine degli account. Twitter ha rimosso più della metà degli account segnalati negli Stati Uniti, mentre tutti gli account francesi tranne uno erano ancora attivi nel novembre 2021. Abbiamo notato la stessa tendenza su Facebook. Gli Stati Uniti hanno visto la percentuale maggiore di rimozioni, con il 38% degli account segnalati rimossi, mentre la Francia ha visto solo il 17% rimosso. 

Il report di aprile 2020 di NewsGuard sui super-diffusori di misinformazione sul COVID-19 su Facebook ha trovato almeno nove pagine che condividevano le false affermazioni secondo cui la vitamina C può curare il COVID-19. Di queste nove, quattro sono state rimosse e cinque rimangono attive. Agli utenti di Facebook non viene fornita alcuna indicazione dalla piattaforma sul motivo per cui alcune pagine possono continuare a diffondere misinformazione mentre altre vengono rimosse.

Questi risultati riecheggiano quelli di altri due recenti report pubblicati da NewsGuard. Un report dell’ottobre 2021 per l’Organizzazione mondiale della sanità e inviato anche ad altre ONG, autorità sanitarie, autorità di regolamentazione e funzionari governativi in Europa e negli Stati Uniti ha mostrato che 20 account, pagine o gruppi su Facebook noti per diffondere misinformazione sul COVID-19 o sui suoi vaccini hanno acquisito nel complesso 370.000 follower in un anno. L’altro report, pubblicato nel settembre del 2021, mostrava che l’app di condivisione video TikTok forniva misinformazione sui vaccini a bambini di 9 anni senza che questi seguissero alcun account o utilizzassero la barra di ricerca.

La continua tolleranza delle piattaforme per questo tipo di misinformazione potrebbe essere il risultato del loro essere volutamente poco trasparenti nel modo in cui vengono prese le decisioni in merito alla misinformazione, al fact-checking e alla rimozione dei contenuti.

Nell’ottobre 2021, i documenti fatti trapelare dalla whistleblower di Facebook France Haugen hanno mostrato che Facebook ha condotto numerosi studi su come la misinformazione sul COVID-19 e sui vaccini si diffonde sulla piattaforma. La stessa ricerca di Facebook ha mostrato che le camere d’eco della misinformazione stavano alimentando l’esitazione vaccinale e che i post provenienti da fonti di informazione affidabili, come l’Organizzazione mondiale della sanità, erano zeppi di commenti degli attivisti no-vax. Nonostante le richieste di esperti, legislatori, e dell’amministrazione Biden, Facebook ha scelto di mantenere segreti questi dati.

Non è chiaro come le piattaforme determinino quali pagine vengono rimosse e quali no. Anche quando gli account condividono esattamente le stesse bufale, alcuni vengono rimossi mentre altri rimangono attivi.

Il report di NewsGuard dell’aprile 2020 sui super-diffusori di misinformazione sul COVID-19 su Twitter ha trovato quattro pagine che condividevano false affermazioni che collegavano la tecnologia 5G alla diffusione del COVID-19. Anche in questo caso, gli utenti non hanno modo di sapere perché alcuni di questi account sono stati rimossi e altri sono rimasti sulla piattaforma.

La rimozione dei contenuti non sembra funzionare, né pare ottenere il risultato voluto. Le società di social media potrebbero aiutare a proteggere i propri utenti etichettando questi account e queste pagine come diffusori di misinformazione. Fornire agli utenti più informazioni, non sopprimendo account o rimuovendo segretamente i contenuti, li aiuterebbe a capire quali pagine possono essere considerate affidabili perché aderiscono agli standard fondamentali della piattaforma e quali no. Invece, i criteri di rimozione sono poco trasparenti e vengono utilizzati in modo incoerente. E gli utenti vengono tenuti all’oscuro sulle modalità con cui vengono prese le decisioni relative ai contenuti che visualizzano.

Riepilogo dei risultati

Nell’aprile 2020 NewsGuard ha segnalato 85 account che avevano diffuso misinformazione sul COVID-19. 43 non hanno visto alcuna azione da parte delle piattaforme e 19 hanno aumentato il loro numero di follower, in media del 13,8%. Tutti gli account per i quali non è stata intrapresa alcuna azione visibile da parte delle piattaforme hanno continuato a diffondere misinformazione.

Dei 26 account che NewsGuard ha segnalato a Twitter per aver diffuso misinformazione sul COVID-19, 13 non hanno visto alcuna azione da parte della piattaforma e 10 di questi hanno aumentato il loro numero di follower di 358.927, con un aumento medio del 23,7%.

Dei 59 account che NewsGuard ha segnalato a Facebook per aver diffuso misinformazione sul COVID-19, 31 non hanno visto alcuna azione da parte della piattaforma e 9 di essi hanno aumentato il numero complessivo di like di circa 718.000.

Leggi i quattro report di NewsGuard dell’aprile 2020 citati in questa newsletter:

Tracking Facebook’s COVID-19 Misinformation ‘Super-spreaders’
Tracking Facebook’s COVID-19 Misinformation ‘Super-spreaders’ in Europe
Tracking Twitter’s COVID-19 Misinformation ‘Super-spreaders’
Tracking Twitter’s European COVID-19 misinformation ‘Super-spreaders’

 

Correzione: una versione precedente di questo report affermava erroneamente nella sezione “Riepilogo dei risultati” che tutti gli 85 account segnalati da NewsGuard per aver diffuso misinformazione sul COVID-19 avevano continuato a farlo. In realtà, come afferma lo stesso report, 43 degli 85 account segnalati hanno continuato a pubblicare misinformazione. NewsGuard si scusa per l’errore.

Inviaci le tue domande o le tue idee.

Immagine di copertina: foto di Alexander Shatov su Unsplash