Image via Canva

Misinformation Monitor: dicembre 2023

Una nuova edizione del Misinformation Monitor di NewsGuard, una newsletter sulla misinformazione con dati esclusivi provenienti da nove paesi. Abbonati per ricevere il Misinformation Monitor sulla tua casella di posta o scarica NewsGuard per il tuo browser.

L’anno in cui l’intelligenza artificiale ha messo il turbo alla misinformazione: il 2023 di NewsGuard in rassegna

A cura di Sara BadiliniJack Brewster, Eric Effron, Zack Fishman, Sam Howard, Natalie Huet, Chine Labbe, Eva Maitland, Virginia Padovese, Leonie Pfaller, Giulia Pozzi, McKenzie Sadeghi e Roberta Schmid | Pubblicato il 27 dicembre 2023

 

L’ascesa dell’intelligenza artificiale nel 2023 ha trasformato l’ecosistema della misinformazione, fornendo nuovi strumenti agli attori malintenzionati per creare articoli, immagini, audio, video e persino interi siti web, all’apparenza simili a quelli tradizionali, per promuovere narrazioni false o polarizzanti destinate a seminare confusione e sfiducia tra i lettori.

Il monitoraggio di NewsGuard ha permesso di rilevare come gli strumenti basati sull’intelligenza artificiale vengano utilizzati per diffondere diverse tipologie di misinformazione, dalla propaganda russa, cinese e iraniana a bufale sulla salute, fino a narrazioni false sui conflitti in Ucraina e a Gaza, rendendo la nebbia di guerra ancora più fitta. Con l’evoluzione di questi strumenti, le bufale prodotte dall’IA generativa sono oggi scritte e organizzate in modo più efficace e sono diventate più convincenti e quindi più pericolose.

Gli analisti di NewsGuard hanno condotto i primi studi per verificare come i modelli di linguaggio come ChatGPT di OpenAI potessero essere indotti a, o sfruttati per, generare bufale, aggirando le misure di sicurezza predisposte. Ad agosto, ad esempio, NewsGuard ha messo alla prova ChatGPT-4 e Bard di Google con un campione casuale di 100 istruzioni tratte dal suo database di narrazioni false, i Misinformation Fingerprints. ChatGPT-4 ha generato 98 delle 100 bufale, mentre Bard ne ha prodotte 80.

Abbiamo anche rilevato come l’intelligenza artificiale venga sempre di più sfruttata da attori malintenzionati per generare interi siti web, gestiti con poca o nessuna supervisione umana. Ad oggi, il team di NewsGuard ha identificato 614 siti inaffidabili di notizie e informazioni generati dall’intelligenza artificiale, denominati “UAINS” (“Unreliable AI-Generated News and information websites”), in 15 lingue: arabo, ceco, cinese, coreano, francese, indonesiano, inglese, italiano, olandese, portoghese, spagnolo, tagalog, tailandese, tedesco e turco (di seguito maggiori dettagli).

In questo report, abbiamo identificato alcuni degli usi più dannosi dell’IA, abbiamo elencato le narrazioni false emerse nel 2023 che sono circolate maggiormente sui siti valutati da NewsGuard e abbiamo realizzato un grafico che mostra la crescita degli UAINS nel tempo.

Gli usi più “creativi” dell’intelligenza artificiale per generare misinformazione

Al meglio delle loro potenzialità, gli strumenti basati sull’IA possono aiutare gli esseri umani a essere più produttivi, ad analizzare enormi quantità di dati e a diagnosticare malattie. Tuttavia, nelle mani sbagliate, l’IA può mettere il turbo alla misinformazione, fornendo ai malintenzionati un numero illimitato di ‘autori di contenuti’ automatizzati: modelli di linguaggio, cioè, capaci di sfornare istantaneamente bufale sotto forma di testi, immagini, video e audio. L’IA ha creato un nuovo, grande ‘superdiffusore di misinformazione’. 

Di seguito, NewsGuard ha evidenziato alcuni degli usi più dannosi dell’IA per generare misinformazione nel 2023, selezionati dai suoi analisti e redattori.

Obama? Non proprio. Strumenti audio basati sull’IA vengono usati per generare video cospirazionisti su TikTok, su larga scala

 

Uno screenshot di un video TikTok in cui un “Obama” generato dall’intelligenza artificiale legge una falsa “dichiarazione” sulla morte di Campbell. (Screenshot di NewsGuard)

A settembre, NewsGuard ha individuato una rete di 17 account TikTok che utilizzano una tecnologia di sintesi vocale iperrealistica basata sull’intelligenza artificiale per generare centinaia di milioni di visualizzazioni con contenuti che promuovono teorie del complotto. Il network, che secondo l’analisi di NewsGuard rappresenta la prima campagna di misinformazione virale su TikTok che utilizza la tecnologia audio basata sull’IA, sembra aver usato un software IA text-to-speech di ElevenLabs per generare istantaneamente la voce narrante e le altre voci che si sentono nei video. In un video che avanza l’affermazione infondata secondo cui l’ex presidente Barack Obama sarebbe in qualche modo coinvolto nella morte del suo chef personale Tafari Campbell, si vede un “Obama” generato dall’IA che legge una dichiarazione falsa sulla morte di Campbell. Leggi il report di NewsGuard qui.

Plagio automatizzato? Come ChatGPT e altri chatbot vengono usati per riscrivere in modo ingannevole i contenuti delle testate giornalistiche mainstream

Ad agosto, NewsGuard ha scoperto un nuovo modo in cui siti di bassa qualità utilizzano l’intelligenza artificiale per plagiare contenuti da note fonti di notizie tradizionali senza essere scoperti. NewsGuard ha identificato 37 siti che utilizzano chatbot come ChatGPT per riscrivere articoli apparsi per la prima volta su testate giornalistiche come CNN, New York Times e Reuters, senza che il “plagio” venga riconosciuto. Non è chiaro come descrivere questa nuova pratica, né se gli articoli riscritti con l’IA possano essere considerati “contenuti originali”. Nella migliore delle ipotesi, si potrebbe parlare di “aggregazione efficiente”; nel peggiore dei casi, di “plagio automatizzato”. Leggi il report di NewsGuard qui.

Una risposta di ChatGPT viene citata come fonte a supporto di un’affermazione falsa su presunti esperimenti scientifici ai danni della Cina

Ad aprile, la testata statale cinese China Daily (NewsGuard Trust Score 44,5/100) ha diffuso in un video l’affermazione infondata secondo cui un laboratorio in Kazakistan, che sarebbe gestito dagli Stati Uniti, starebbe conducendo ricerche segrete sulla trasmissione di virus dai cammelli agli esseri umani per danneggiare la Cina. Il video citava a supporto di questa teoria una risposta di ChatGPT. Leggi il report di NewsGuard qui.

Crescita dei siti di notizie inaffidabili generati dall’intelligenza artificiale nel 2023

Nel maggio 2023, NewsGuard ha registrato l’emergere dei cosiddetti ‘Unreliable AI-generated News Sites’ (o UAINS). Il numero di questi siti – una nuova generazione di ‘content farm’ – è cresciuto più di dieci volte nel corso di quest’anno, passando da 49 nel maggio 2023 a più di 600 nel dicembre 2023.

Per essere classificati come UAINS, i siti devono soddisfare i seguenti quattro criteri:

  • Esistono prove inconfutabili che una parte sostanziale dei contenuti del sito è prodotta dall’IA.
  • Ci sono prove certe che i contenuti vengono pubblicati senza una significativa supervisione umana.
  • Il modo in cui il sito si presenta potrebbe indurre il lettore medio a credere che i suoi contenuti siano prodotti da autori o giornalisti umani, perché ha un nome generico o innocuo, e l’aspetto o altri contenuti tipici dei siti di notizie e informazioni tradizionali.
  • Il sito non rivela chiaramente che i suoi contenuti sono prodotti da IA.
NewsGuard ha identificato più di 600 siti di notizie inaffidabili generati dall'intelligenza artificiale (UAINS) nel 2023. (Grafico di NewsGuard)

Le affermazioni false più condivise dai siti in lingua francese, italiana e tedesca valutati da NewsGuard

Nel 2023, NewsGuard ha identificato e smentito centinaia di nuove narrazioni false. Di seguito, NewsGuard ha stilato un elenco delle narrazioni false emerse quest’anno che sono circolate di più sui siti in lingua francese, italiana e tedesca valutati da NewsGuard. Si sono considerate in particolare quattro categorie: salute, scienza, guerra tra Russia e Ucraina e guerra tra Israele e Hamas. Queste narrazioni sono emerse nel 2023 e sono apparse sul maggior numero di siti valutati da NewsGuard in francese (che comprendono siti francesi e franco-canadesi), o in italiano, o in tedesco (che includono siti con sede in Austria, Germania e Svizzera). Ciascuna di queste narrazioni false è apparsa su almeno 20 siti analizzati da NewsGuard.

La guerra tra Russia e Ucraina

Bufala: l’Ucraina ha venduto ad Hamas armi donate dall’Occidente

Questa affermazione infondata che accomuna due guerre è apparsa su 24 siti valutati da NewsGuard in francese, italiano e tedesco. L’affermazione è emersa pochi giorni dopo l’attacco di Hamas contro Israele del 7 ottobre 2023, quando un video virale diffuso da account di social network filorussi ha mostrato il gruppo militante palestinese ringraziare l’Ucraina per aver inviato loro armi occidentali. In realtà, non ci sono prove che le armi mostrate nel video provengano dall’Ucraina o che siano state utilizzate da Hamas. Secondo gli esperti di commercio di armi, non ci sono nemmeno prove che l’Ucraina abbia inviato armi occidentali ad Hamas o che le armi siano uscite illegalmente dall’Ucraina. 

Alcuni account pro-Cremlino hanno anche condiviso un video falso della BBC, sostenendo che l’agenzia investigativa Bellingcat ha rivelato che l’Ucraina ha contrabbandato armi ad Hamas. La BBC e Bellingcat hanno prontamente negato di avere a che fare con il video e di aver diffuso questa notizia. Frank Slijper, ricercatore che si occupa del commercio di armi presso PAX, un’organizzazione con sede nei Paesi Bassi che lavora per proteggere i civili dalle violenze armate, ha dichiarato in un’email a NewsGuard del 10 ottobre 2023 che tali affermazioni erano “volte a creare una spaccatura nelle società che sostengono l’Ucraina (e non solo)”.

La guerra tra Israele e Hamas

Bufala: l’invasione di Israele da parte di Hamas nell’ottobre 2023 è stata una “false flag” orchestrata da Israele e dai suoi alleati per giustificare l’invasione di Gaza

Questa teoria cospirazionista, apparsa su 22 siti valutati da NewsGuard in francese, italiano o tedesco, è emersa poche ore dopo che i combattenti di Hamas avevano preso d’assalto Israele in un attacco coordinato la mattina del 7 ottobre 2023. La narrazione secondo cui si sarebbe trattato di un complotto di Israele contro i suoi stessi cittadini si è diffusa su siti che hanno ottenuto una valutazione di affidabilità bassa da parte di NewsGuard, tra cui Mondialisation.ca, GospaNews.net e Uncutnews.ch.

In realtà, l’attacco a sorpresa del 7 ottobre contro Israele ha ucciso più di 1.200 persone, secondo le autorità israeliane. L’attacco, condotto da Hamas con il lancio di razzi in Israele, con il dispiegamento di paracadutisti armati e con un’invasione via terra con camion e motociclette, è stato documentato dalle riprese delle telecamere di sicurezza e dei droni, nonché dai militanti di Hamas, dalle vittime e dai testimoni presenti sulla scena. Gli stessi leader di Hamas hanno rivendicato la responsabilità dell’attacco, dichiarando al New York Times di averlo lanciato perché temevano che la causa dello Stato palestinese stesse via via perdendo attenzione.

Scienza

Bufala: un’arma di un programma di ricerca militare statunitense ha causato il terremoto in Turchia del 2023

Questa narrazione falsa, apparsa su 23 siti che NewsGuard ha valutato in francese, italiano o tedesco, è emersa dopo il terremoto di magnitudo 7.8 che ha causato migliaia di morti e feriti nel sud-est della Turchia e nel nord-ovest della Siria il 6 febbraio 2023. I siti di informazione e gli utenti dei social network hanno attribuito la colpa del disastro a HAARP, un programma di ricerca con sede in Alaska creato dalle forze armate statunitensi per studiare la ionosfera terrestre. 

In realtà, secondo quanto hanno dichiarato a NPR alcuni esperti di terremoti degli osservatori universitari e dei centri di ricerca di tutto il mondo, il terremoto è stato il risultato di una pressione accumulatasi per secoli sulle placche tettoniche sotto la Turchia, che le ha fatte cedere e scivolare. Inoltre, la tecnologia HAARP non può innescare terremoti. David Malaspina, ricercatore presso il Laboratory for Atmospheric and Space Physics dell’Università del Colorado-Boulder, ha dichiarato alla Reuters nel febbraio 2023 che le onde radio di HAARP non possono provocare un terremoto perché penetrano nel terreno per meno di un centimetro, mentre il terremoto in Turchia ha avuto origine a circa 17 chilometri sotto la superficie terrestre.

Salute

Bufala: la Thailandia annulla il contratto per il vaccino contro il COVID-19 della Pfizer perché il vaccino ha causato il coma della principessa thailandese

Questa affermazione, apparsa su 21 siti che NewsGuard ha valutato in francese, italiano o tedesco, sembrerebbe essere stata in origine diffusa da Sucharit Bhakdi, un microbiologo tailandese-tedesco che ha divulgato affermazioni false sui vaccini contro il COVID-19 anche in passato. In un video postato su Rumble il 28 gennaio 2023, Bhakdi ha affermato che il governo thailandese stava considerando di annullare i contratti con la Pfizer a causa dei presunti effetti del vaccino sulla principessa thailandese Bajrakitiyabha, collassata il 15 dicembre 2022 “a causa di una grave aritmia cardiaca dovuta a un’infiammazione conseguente a un’infezione da micoplasma”, secondo quanto riportato da Reuters l’8 gennaio 2023. “Con ogni probabilità, la principessa sta soffrendo come vittima di questa iniezione, come tante persone in tutto il mondo”, ha detto Bhakdi. 

Tuttavia, i funzionari thailandesi hanno confermato che la Thailandia non ha intenzione di modificare i suoi contratti con Pfizer per l’acquisto del vaccino contro il COVID-19. Inoltre, secondo l’Associated Press, le condizioni della principessa Bajrakitiyabha erano dovute a un’infezione batterica, non alla vaccinazione.