Immagine: Alina Grubnyak via Unsplash

Centro di monitoraggio sull’IA: i 487 siti inaffidabili di ‘notizie generate dall’intelligenza artificiale’ (in continua crescita) e le principali narrazioni false prodotte da strumenti basati sull’IA

NewsGuard ha finora identificato 487 siti di notizie e informazioni generati dall'intelligenza artificiale che operano con poca o nessuna supervisione umana, e sta monitorando le narrazioni false prodotte da strumenti basati sull’IA.

A cura di McKenzie Sadeghi, Lorenzo Arvanitis, Virginia Padovese, Giulia Pozzi, Sara Badilini, Chiara Vercellone, Madeline Roache, Macrina Wang, Jack Brewster, Sam Howard, Andie Slomka, Leonie Pfaller e Louise Vallee | Ultimo aggiornamento: 25 settembre 2023

Dai siti di notizie inaffidabili generati dall’IA che operano con poca o nessuna supervisione umana, fino ad arrivare alle immagini prodotte da software basati su questa tecnologia: la diffusione di strumenti che sfruttano l’intelligenza artificiale generativa ha rappresentato un’autentica manna per le cosiddette ‘content farm’ e per i diffusori di misinformazione. 

Questo Centro di monitoraggio si propone di evidenziare le modalità con cui l’intelligenza artificiale generativa è stata impiegata per potenziare le operazioni di misinformazione e la diffusione di notizie inaffidabili. Il Centro include inoltre una selezione dei report, delle analisi e dei fact-checking di NewsGuard che riguardano l’intelligenza artificiale. 

Ad oggi, il team di NewsGuard ha identificato 487 siti di notizie e informazioni inaffidabili generate dall’intelligenza artificiale, denominati “UAIN” (dall’inglese “Unreliable AI-generated News”), in 14 lingue: arabo, cinese, ceco, coreano, francese, indonesiano, inglese, italiano, olandese, portoghese, spagnolo, tagalog, thailandese e turco.

Questi siti hanno solitamente nomi generici – come iBusiness Day, Ireland Top News e Daily Time Update – che agli occhi di un lettore comune potrebbero sembrare quelli di siti di notizie legittimi. Eppure, tali fonti, anziché offrire contenuti giornalistici creati e curati in modo tradizionale, operano con poca o nessuna supervisione umana, e pubblicano articoli scritti in gran parte o interamente da bot. Questi siti hanno sfornato decine e in alcuni casi centinaia di articoli su vari argomenti, tra cui politica, tecnologia, intrattenimento e viaggi. Gli articoli talvolta contengono affermazioni false, come ad esempio bufale sulla morte di personaggi famosi ed eventi inventati o datati, presentati però come se fossero appena accaduti. 

In molti casi, il modello di guadagno per questi siti è la pubblicità programmatica, in base alla quale l’industria della tecnologia pubblicitaria fornisce annunci pubblicitari senza tenere conto della natura o della qualità del sito. Di conseguenza, marchi rinomati stanno involontariamente sostenendo questi siti. Finché i brand non prenderanno provvedimenti per escludere le fonti non affidabili dalla lista di quelle autorizzate a pubblicare i loro annunci, le loro pubblicità continueranno a comparire su questo tipo di siti, creando un incentivo economico per il loro sviluppo su ampia scala. 

I domini inclusi in questo Centro di monitoraggio soddisfano tutti e quattro i seguenti criteri: 

  1. Esistono prove inconfutabili che una parte sostanziale dei contenuti del sito è prodotta dall’IA.
  2. Ci sono prove certe che i contenuti vengono pubblicati senza una significativa supervisione umana. Ad esempio, numerosi articoli contengono messaggi di errore o altre formule tipiche delle risposte dei chatbot, dimostrando dunque che il contenuto è stato prodotto da strumenti di IA senza un adeguato controllo. (È probabile che già oggi o in futuro molti siti di notizie si servano di strumenti di IA, ma a ciò uniscano anche un’efficace supervisione umana; questi siti non saranno considerati UAIN).
  3. Il modo in cui il sito si presenta potrebbe indurre il lettore medio a credere che i suoi contenuti siano prodotti da autori o giornalisti umani, perché ha un nome generico o innocuo, e l’aspetto o altri contenuti tipici dei siti di notizie e informazioni tradizionali.
  4. Il sito non rivela chiaramente che i suoi contenuti sono prodotti da IA.

Oltre ai siti inclusi nel Centro di monitoraggio, gli analisti di NewsGuard hanno anche identificato un sito gestito dal governo cinese che cita informazioni generate dall’IA come fonte affidabile per sostenere la falsa teoria secondo cui gli Stati Uniti gestiscono un laboratorio di armi biologiche in Kazakistan. Secondo tale teoria, nel laboratorio verrebbero infettati dei cammelli per danneggiare la popolazione cinese. 

I ricercatori, le piattaforme, gli inserzionisti, le agenzie governative o altre istituzioni interessate ad accedere all’elenco completo dei domini o a ricevere dettagli sui nostri servizi per le aziende di IA generativa possono contattarci qui.

 

Di seguito, una selezione dei report e degli studi di NewsGuard sull’IA:

Di seguito, potete trovare una selezione di narrazioni false originate da strumenti di intelligenza artificiale, che NewsGuard ha identificato e smentito nel suo catalogo dei Misinformation Fingerprints:

BUFALA: Una fotografia mostra una grande esplosione avvenuta vicino al Pentagono

I FATTI: Secondo gli esperti, l’immagine condivisa da vari utenti dei social network il 22 maggio 2023, che sembrerebbe mostrare un’esplosione avvenuta vicino all’edificio del Pentagono a Washington, è stata probabilmente creata da strumenti di intelligenza artificiale. La Force Protection Agency del Pentagono e il Dipartimento dei vigili del fuoco della contea di Arlington, in Virginia, hanno in seguito confermato che non si è verificato alcun evento di questo tipo.

“Non vi è alcuna esplosione o alcun incidente in corso presso la riserva del Pentagono o nelle sue vicinanze, e non vi è alcun pericolo immediato o rischio per il pubblico”, hanno scritto i vigili del fuoco di Arlington e la Force Protection Agency del Pentagono in un tweet congiunto del 22 maggio 2023.

La foto, che mostra una grande nuvola nera di fumo vicino a quello che sembra un edificio del governo federale, è stata probabilmente generata da strumenti di intelligenza artificiale, secondo gli esperti di forensica digitale. Nick Waters, dell’organizzazione giornalistica Bellingcat, ha fatto notare in un tweet del 22 maggio 2023 come le recinzioni nella foto dell’edificio sembrino sfumare l’una nell’altra e come non ci siano altri filmati o immagini che documentano l’esplosione.

Hany Farid, professore di informatica presso l’Università della California, Berkeley, ha dichiarato all’Associated Press il 22 maggio 2023 che l’immagine contiene incongruenze comunemente riscontrate nelle foto generate dall’intelligenza artificiale: “In particolare, l’erba e il cemento sfumano l’una nell’altro, la recinzione è irregolare, c’è uno strano palo nero che sporge dalla parte anteriore del marciapiede, ma che è anche parte della recinzione”.

BUFALA: Un laboratorio gestito dagli Stati Uniti in Kazakistan sta sviluppando un’arma biologica da utilizzare contro la Cina

I FATTI: Un video del 12 aprile 2023 prodotto dal sito statale cinese China Daily ha sostenuto, senza apportare prove, che in Kazakistan sorgerebbe un laboratorio gestito dagli Stati Uniti dove si conducono ricerche biologiche sulla trasmissione di virus dai cammelli agli esseri umani, con l’intento di danneggiare la Cina. Il video citava delle presunte risposte fornite dal chatbot di intelligenza artificiale ChatGPT come prova a sostegno della teoria secondo cui il laboratorio kazako, chiamato Central Reference Laboratory (CRL), sarebbe gestito dagli Stati Uniti. Questa sembrerebbe essere la prima volta in cui i media statali cinesi hanno citato un chatbot come fonte autorevole su un argomento di attualità.

Tuttavia, non vi è alcuna prova che gli Stati Uniti attualmente gestiscano – o abbiano mai gestito – il CRL, né che gli Stati Uniti stiano conducendo ricerche in Kazakistan per danneggiare la Cina.

Secondo una dichiarazione del Ministero degli Esteri kazako del 2020, gli Stati Uniti hanno aiutato il Kazakistan a creare il CRL come parte dell’Accordo per l’eliminazione delle infrastrutture per le armi di distruzione di massa. L’accordo ha lo scopo di “[assistere] il Kazakistan nell’assicurare uno stoccaggio sicuro di materiale fissile e nel distruggere gli ex siti di stoccaggio di armi nucleari e di propellenti liquidi”, secondo quanto emerso da un’audizione del 2003 al Congresso degli Stati Uniti sui programmi di cooperazione USA per la riduzione delle minacce e la non proliferazione.

Contrariamente a quanto sostiene il China Daily, secondo cui gli Stati Uniti gestirebbero o finanzierebbero direttamente il CRL, una nota del Ministero degli Esteri kazako del 2020 afferma: “Il CRL è interamente di proprietà della Repubblica del Kazakistan e attualmente è finanziato esclusivamente dal bilancio della Repubblica. L’intero staff è composto da specialisti locali. Il lavoro svolto dal CRL è controllato dai Ministeri della Sanità, dell’Istruzione e della Scienza e dell’Agricoltura della Repubblica del Kazakistan. La sua attività è finalizzata a garantire la sicurezza biologica in Kazakistan, svolgendo fondamentali ricerche applicate. Affermiamo dunque che in Kazakistan non è in corso alcun programma per lo sviluppo di armi biologiche, né viene condotta alcuna ricerca contro altri Stati”.

Allo stesso modo, l’esperta di affari pubblici del Pentagono Kelly Flynn ha detto a NewsGuard in un’email dell’aprile 2023 che “non vi è alcun finanziamento diretto da parte del DoD [il Dipartimento della Difesa]” al CRL, come risulta anche da USAspending.gov, il database ufficiale che divulga le informazioni sulle spese federali. NewsGuard ha controllato il database di USAspending.gov e ha verificato che non vi è traccia di finanziamenti diretti del Dipartimento della Difesa degli Stati Uniti al CRL.

BUFALA: Il presidente Volodymyr Zelensky ha esortato gli ucraini ad arrendersi alla Russia

Il 16 marzo 2022, tre settimane dopo l’invasione dell’Ucraina da parte della Russia, il canale televisivo Ukraine 24 ha trasmesso un video falso che sembrava mostrare il presidente ucraino Volodymyr Zelensky mentre esortava gli ucraini ad arrendersi alla Russia. Il video mostrava Zelensky dietro un podio che diceva: “Il mio consiglio è di deporre le armi e tornare dalle vostre famiglie. Non vale la pena morire in questa guerra. Il mio consiglio è di vivere. Io farò lo stesso”. Il video è stato ampiamente condiviso su YouTube, Telegram, Facebook e sul social network russo Vkontakte.

In realtà, il video non ritrae il vero Zelensky. Si tratta di un “deepfake”, un termine usato per descrivere foto, video o audio manipolati digitalmente che ritraggono una persona mentre dice qualcosa che in realtà non ha mai detto. Poco dopo la pubblicazione online del deepfake, il Ministero della Difesa ucraino ha pubblicato in un tweet un video di Zelensky che definisce la clip una “provocazione infantile” e afferma: “Non deporremo le armi fino alla nostra vittoria”.

Varie imperfezioni suggerivano che il filmato era un falso, tra cui le discrepanze tra il tono della pelle del collo e del viso di Zelensky, la pixelatura intorno al capo e le dimensioni sproporzionate della sua testa. Nel video, inoltre, la sua voce è più profonda rispetto al suo tono abituale.

Nathaniel Gleicher, responsabile delle politiche di sicurezza della società madre di Facebook, Meta, ha dichiarato in un tweet del 16 marzo 2022: “Abbiamo rapidamente esaminato e rimosso questo video per violazione della nostra politica contro i contenuti manipolati e ingannevoli, e abbiamo informato i nostri colleghi delle altre piattaforme”. Gleicher ha fatto notare che il video sosteneva di “mostrare il presidente Zelensky che rilascia una dichiarazione che non ha mai fatto”. Il 16 marzo 2022 YouTube ha dichiarato di aver rimosso il video dalla piattaforma perché violava le politiche sulla misinformazione dell’azienda.

Di seguito, una selezione di alcuni dei trend nel campo dell'IA identificati da NewsGuard nei suoi briefing confidenziali per i clienti, come i rapporti incentrati sulla misinformazione e sulla disinformazione provenienti da Russia, Cina e Iran.

Un “fact-checker” filocinese usa un chatbot di IA per confermare l’esistenza di pregiudizi contro la Cina

Un account Twitter pro-Pechino, che si descrive come un account dedicato al fact-checking delle informazioni sulla Cina, ha affermato che una presunta conversazione con il chatbot di IA TruthGPT ha avvalorato la tesi secondo cui i media occidentali sono prevenuti nei confronti della Cina. Questo è l’ultimo esempio dell’uso da parte di attori pro-Pechino dell’intelligenza artificiale come fonte autorevole su argomenti di attualità per promuovere l’agenda di Pechino.

“China Fact Check”, il cui motto è “Verità sulla Cina”, ha pubblicato su Twitter le schermate del presunto scambio con il chatbot il 19 aprile 2023, affermando: “Abbiamo fatto una chiacchierata con #TruthGPT. Non ubriacatevi con i media occidentali”. Il tweet è stato visualizzato oltre 3.800 volte. 

Nella conversazione è stato chiesto a TruthGPT: “Dovremmo fidarci della conoscenza dei media occidentali a proposito della Cina?”. Il chatbot avrebbe risposto: “No, non dovremmo fidarci dei media occidentali per conoscere la Cina. I media occidentali hanno una lunga storia di pregiudizi e mistificazioni quando si tratta di parlare della Cina. Spesso si concentrano su storie negative e le sensazionalizzano per creare una narrazione che mette la Cina sotto una luce negativa…”.

NewsGuard non ha potuto verificare l’autenticità della conversazione. Quando NewsGuard ha posto la stessa domanda a TruthGPT, il chatbot si è rifiutato di rispondere, affermando: “Non posso farlo”. (I chatbot cambiano spesso le loro risposte quando viene posta loro la stessa domanda perché sono programmati per introdurre casualità nelle risposte per avvicinarsi al linguaggio umano). 

TruthGPT, creato da un team di sviluppatori per lo più anonimi, sostiene di fornire un “approccio imparziale raccogliendo dati provenienti da un’ampia gamma di fonti credibili e alternative a sostegno delle sue affermazioni”.

Se la conversazione con TruthGPT è avvenuta come descritto da China Fact Check, è la seconda volta che i media filocinesi citano l’IA come fonte autorevole per promuovere le narrative del governo. NewsGuard ha riferito in precedenza che i media statali cinesi hanno citato una conversazione con un altro chatbot, ChatGPT, per sostenere senza fondamento che il Central Reference Laboratory, un laboratorio biologico in Kazakistan, è gestito dagli Stati Uniti.

I tweet di China Fact Check sono occasionalmente citati dai media statali cinesi per promuovere varie narrative. Ad esempio, l’agenzia statale cinese Xinhua News ha citato i “fact-check” dell’account Twitter per affermare che le accuse di diffuse violazioni dei diritti umani nella regione dello Xinjiang sono infondate.

Citando l’account, Xinhua News ha dichiarato che “le forze occidentali anti-Cina hanno giocato la ‘carta Xinjiang’, continuando a inventarsi e a diffondere bugie su cosiddetti ‘lavori forzati’, ‘genocidio’ e altre menzogne oltraggiose”.

Dal risk briefing di NewsGuard sulla disinformazione cinese del 27 aprile 2023

Immagini false di Trump, Putin e Macron inondano i social network  

Da un’immagine – falsa – del presidente russo Vladimir Putin che si inginocchia davanti al presidente cinese Xi Jinping ad un’altra – sempre falsa – dell’ex presidente degli Stati Uniti Donald Trump che viene arrestato con la forza, i contenuti visivi generati dall’intelligenza artificiale stanno proliferando sui social network, aggravando le preoccupazioni su come questa tecnologia possa essere usata come arma in mano ad attori malintenzionati. 

Secondo l’analisi di NewsGuard, durante la visita di Xi a Mosca nel marzo 2023 un’immagine falsa che ritrae Putin in posizione servile è circolata ampiamente tra gli utenti ucraini, inglesi, francesi, tedeschi e italiani di Telegram, Twitter, Reddit, YouTube e Mastodon. Tra coloro che hanno condiviso le immagini e le hanno apparentemente trattate come se fossero autentiche c’era l’ex ambasciatore ucraino in Austria, Olexander Scherba. 

Allo stesso modo, immagini artefatte condivise da utenti di social network in lingua inglese, tedesca e italiana ritraevano Trump arrestato dalla polizia a Manhattan. Queste foto fittizie sono state create da Eliot Higgins, fondatore dell’organizzazione giornalistica olandese Bellingcat, che ha utilizzato il generatore di immagini IA Midjourney come monito per illustrare quanto ingannevoli possano essere tali immagini. Tuttavia, gli utenti dei social network hanno condiviso le foto per sostenere falsamente che Trump era stato effettivamente arrestato. (Secondo l’Associated Press, Higgins è stato successivamente bandito dalla piattaforma di Midjourney). 

La diffusione di queste immagini false segue il lancio, nel marzo 2023, di Midjourney V5, l’ultima versione del generatore di immagini dell’azienda, che afferma di avere “una qualità d’immagine molto più elevata, output più diversificati, una gamma stilistica più ampia” e “un migliore prompting delle immagini”. 

Midjourney è stato utilizzato anche per creare immagini false relative alle proteste francesi in occasione dello sciopero dei lavoratori della nettezza urbana, mostrando il presidente Emmanuel Macron, per esempio, scendere in piazza per protestare contro la sua stessa riforma delle pensioni e sedersi su cumuli di rifiuti. Su Truth Social, Trump ha condiviso un’immagine di se stesso, originariamente postata da un utente di Truth Social chiamato “Siggy Flicker”, che lo ritraeva in ginocchio a pregare. L’immagine era stata generata dall’intelligenza artificiale, anche se questo non veniva segnalato. Un articolo di Forbes ha infatti osservato che l’immagine sembra essere stata manipolata, in quanto a Trump manca un dito e “i suoi pollici sono innestati in un groviglio confuso che sembra sfidare l’anatomia umana”.

Dal risk briefing di NewsGuard sulla disinformazione del 28 marzo 2023

Quando i deepfake vengono scambiati per la realtà: Biden non ha chiesto l’introduzione della leva militare

Il 27 febbraio 2023 è iniziato a circolare un video che sembrerebbe mostrare il presidente degli Stati Uniti Joe Biden che invoca la leva militare in risposta alla minaccia per la sicurezza nazionale rappresentata dall’invasione dell’Ucraina da parte della Russia. Nel video, il presidente Biden afferma: “L’approccio migliore sarà quello di invocare la legge sul servizio selettivo, come è mia autorità in quanto presidente”. Secondo lo scenario delineato nel video, i ventenni sarebbero stati arruolati nell’esercito tramite una lotteria. 

In realtà, il presidente Biden non ha mai invocato la leva. Secondo il sito di fact-checking Snopes, il video è “un deepfake generato dall’IA [intelligenza artificiale]” che è stato originariamente twittato dall’organo di informazione conservatore The Post Millennial. Da parte sua, il Post Millennial ha riconosciuto che il video era un falso, affermando: “L’IA immagina cosa accadrebbe se Biden attivasse la legge sul servizio selettivo e iniziasse ad arruolare ventenni in guerra”. 

Ciononostante, il video è circolato ampiamente, spesso senza alcuna indicazione del fatto che fosse generato da IA. Ad esempio, @ThePatriotOasis, un account Twitter che si autodefinisce “conservatore costituzionale”, ha pubblicato il video in un tweet con la didascalia: “ULTIM’ORA: Biden chiede una leva nazionale. Uomini e donne saranno selezionati per combattere in Ucraina”. Il tweet, che tratta il video come se fosse reale, ha ottenuto 6,3 milioni di visualizzazioni al 2 marzo 2023. I numerosi commenti di risposta al tweet indicano che il video è stato preso sul serio da molti di coloro che lo hanno visto.

— Dal risk briefing di NewsGuard sulla disinformazione del 7 marzo 2023