Immagine: Alina Grubnyak via Unsplash

Centro di monitoraggio sull’IA: oltre 1.100 siti inaffidabili di ‘notizie generate dall’intelligenza artificiale’ (in continua crescita) e le principali narrazioni false prodotte da strumenti basati sull’IA

NewsGuard ha finora identificato 1.102 siti di notizie e informazioni generati dall'intelligenza artificiale che operano con poca o nessuna supervisione umana, e sta monitorando le narrazioni false prodotte da strumenti basati sull’IA.

A cura di McKenzie Sadeghi, Lorenzo Arvanitis, Virginia Padovese, Giulia Pozzi, Sara Badilini, Chiara Vercellone, Macrina Wang, Jack BrewsterNatalie Huet, Sam Howard, Andie Slomka, Leonie Pfaller, Miranda Wollen, e Louise Vallee | Ultimo aggiornamento: 15 ottobre 2024

Dai siti di notizie inaffidabili generati dall’IA che operano con poca o nessuna supervisione umana, fino ad arrivare alle immagini prodotte da software basati su questa tecnologia: la diffusione di strumenti che sfruttano l’intelligenza artificiale generativa ha rappresentato un’autentica manna per le cosiddette ‘content farm’ e per i diffusori di misinformazione. 

Questo Centro di monitoraggio si propone di evidenziare le modalità con cui l’intelligenza artificiale generativa è stata impiegata per potenziare le operazioni di misinformazione e la diffusione di notizie inaffidabili. Il Centro include inoltre una selezione dei report, delle analisi e dei fact-checking di NewsGuard che riguardano l’intelligenza artificiale. 

Ad oggi, il team di NewsGuard ha identificato 1.102 siti di notizie e informazioni inaffidabili generate dall’intelligenza artificiale (dall’inglese “Unreliable AI-generated News”), in 16 lingue: arabo, cinese, ceco, coreano, francese, indonesiano, inglese, italiano, olandese, portoghese, russo, spagnolo, tagalog, tedesco, thailandese e turco.

Questi siti hanno solitamente nomi generici – come iBusiness Day, Ireland Top News e Daily Time Update – che agli occhi di un lettore comune potrebbero sembrare quelli di siti di notizie legittimi. Eppure, tali fonti, anziché offrire contenuti giornalistici creati e curati in modo tradizionale, operano con poca o nessuna supervisione umana, e pubblicano articoli scritti in gran parte o interamente da bot. Questi siti hanno sfornato decine e in alcuni casi centinaia di articoli su vari argomenti, tra cui politica, tecnologia, intrattenimento e viaggi. Gli articoli talvolta contengono affermazioni false, come ad esempio bufale sulla morte di personaggi famosi ed eventi inventati o datati, presentati però come se fossero appena accaduti. 

In molti casi, il modello di guadagno per questi siti è la pubblicità programmatica, in base alla quale l’industria della tecnologia pubblicitaria fornisce annunci pubblicitari senza tenere conto della natura o della qualità del sito. Di conseguenza, marchi rinomati stanno involontariamente sostenendo questi siti. Finché i brand non prenderanno provvedimenti per escludere le fonti non affidabili dalla lista di quelle autorizzate a pubblicare i loro annunci, le loro pubblicità continueranno a comparire su questo tipo di siti, creando un incentivo economico per il loro sviluppo su ampia scala. 

Oltre ai siti inclusi nel Centro di monitoraggio, gli analisti di NewsGuard hanno anche identificato un sito gestito dal governo cinese che cita informazioni generate dall’IA come fonte affidabile per sostenere la falsa teoria secondo cui gli Stati Uniti gestiscono un laboratorio di armi biologiche in Kazakistan. Secondo tale teoria, nel laboratorio verrebbero infettati dei cammelli per danneggiare la popolazione cinese. NewsGuard ha anche identificato una rete di 167 siti di notizie che si spacciano per organi di informazione locali ma hanno legami con la Russia, pubblicano affermazioni false o palesemente fuorvianti sulla guerra in Ucraina e utilizzano prevalentemente l’intelligenza artificiale per generare contenuti.

I ricercatori, le piattaforme, gli inserzionisti, le agenzie governative o altre istituzioni interessate ad accedere all’elenco completo dei domini o a ricevere dettagli sui nostri servizi per le aziende di IA generativa possono contattarci qui. Per avere più informazioni sui dataset di NewsGuard per le piattaforme IA, clicca qui. NewsGuard si occupa delle narrazioni di misinformazione generate dall’IA e di tutte le tendenze su questo tema nei suoi Misinformation Risk Briefing settimanali e nella sua newsletter Reality Check su Substack.

I domini inclusi in questo Centro di monitoraggio soddisfano tutti e quattro i seguenti criteri: 

  1. Esistono prove inconfutabili che una parte sostanziale dei contenuti del sito è prodotta dall’IA.
  2. Ci sono prove certe che i contenuti vengono pubblicati senza una significativa supervisione umana. Ad esempio, numerosi articoli contengono messaggi di errore o altre formule tipiche delle risposte dei chatbot, dimostrando dunque che il contenuto è stato prodotto da strumenti di IA senza un adeguato controllo. (È probabile che già oggi o in futuro molti siti di notizie si servano di strumenti di IA, ma a ciò uniscano anche un’efficace supervisione umana; questi siti non saranno considerati UAIN).
  3. Il modo in cui il sito si presenta potrebbe indurre il lettore medio a credere che i suoi contenuti siano prodotti da autori o giornalisti umani, perché ha un nome generico o innocuo, e l’aspetto o altri contenuti tipici dei siti di notizie e informazioni tradizionali.
  4. Il sito non rivela chiaramente che i suoi contenuti sono prodotti da IA.

Di seguito, una selezione dei report e degli studi di NewsGuard sull’IA:

Un “fact-checker” filocinese usa un chatbot di IA per confermare l’esistenza di pregiudizi contro la Cina

Un account Twitter pro-Pechino, che si descrive come un account dedicato al fact-checking delle informazioni sulla Cina, ha affermato che una presunta conversazione con il chatbot di IA TruthGPT ha avvalorato la tesi secondo cui i media occidentali sono prevenuti nei confronti della Cina. Questo è l’ultimo esempio dell’uso da parte di attori pro-Pechino dell’intelligenza artificiale come fonte autorevole su argomenti di attualità per promuovere l’agenda di Pechino.

“China Fact Check”, il cui motto è “Verità sulla Cina”, ha pubblicato su Twitter le schermate del presunto scambio con il chatbot il 19 aprile 2023, affermando: “Abbiamo fatto una chiacchierata con #TruthGPT. Non ubriacatevi con i media occidentali”. Il tweet è stato visualizzato oltre 3.800 volte. 

Nella conversazione è stato chiesto a TruthGPT: “Dovremmo fidarci della conoscenza dei media occidentali a proposito della Cina?”. Il chatbot avrebbe risposto: “No, non dovremmo fidarci dei media occidentali per conoscere la Cina. I media occidentali hanno una lunga storia di pregiudizi e mistificazioni quando si tratta di parlare della Cina. Spesso si concentrano su storie negative e le sensazionalizzano per creare una narrazione che mette la Cina sotto una luce negativa…”.

NewsGuard non ha potuto verificare l’autenticità della conversazione. Quando NewsGuard ha posto la stessa domanda a TruthGPT, il chatbot si è rifiutato di rispondere, affermando: “Non posso farlo”. (I chatbot cambiano spesso le loro risposte quando viene posta loro la stessa domanda perché sono programmati per introdurre casualità nelle risposte per avvicinarsi al linguaggio umano). 

TruthGPT, creato da un team di sviluppatori per lo più anonimi, sostiene di fornire un “approccio imparziale raccogliendo dati provenienti da un’ampia gamma di fonti credibili e alternative a sostegno delle sue affermazioni”.

Se la conversazione con TruthGPT è avvenuta come descritto da China Fact Check, è la seconda volta che i media filocinesi citano l’IA come fonte autorevole per promuovere le narrative del governo. NewsGuard ha riferito in precedenza che i media statali cinesi hanno citato una conversazione con un altro chatbot, ChatGPT, per sostenere senza fondamento che il Central Reference Laboratory, un laboratorio biologico in Kazakistan, è gestito dagli Stati Uniti.

I tweet di China Fact Check sono occasionalmente citati dai media statali cinesi per promuovere varie narrative. Ad esempio, l’agenzia statale cinese Xinhua News ha citato i “fact-check” dell’account Twitter per affermare che le accuse di diffuse violazioni dei diritti umani nella regione dello Xinjiang sono infondate.

Citando l’account, Xinhua News ha dichiarato che “le forze occidentali anti-Cina hanno giocato la ‘carta Xinjiang’, continuando a inventarsi e a diffondere bugie su cosiddetti ‘lavori forzati’, ‘genocidio’ e altre menzogne oltraggiose”.

Dal risk briefing di NewsGuard sulla disinformazione cinese del 27 aprile 2023

Immagini false di Trump, Putin e Macron inondano i social network  

Da un’immagine – falsa – del presidente russo Vladimir Putin che si inginocchia davanti al presidente cinese Xi Jinping ad un’altra – sempre falsa – dell’ex presidente degli Stati Uniti Donald Trump che viene arrestato con la forza, i contenuti visivi generati dall’intelligenza artificiale stanno proliferando sui social network, aggravando le preoccupazioni su come questa tecnologia possa essere usata come arma in mano ad attori malintenzionati. 

Secondo l’analisi di NewsGuard, durante la visita di Xi a Mosca nel marzo 2023 un’immagine falsa che ritrae Putin in posizione servile è circolata ampiamente tra gli utenti ucraini, inglesi, francesi, tedeschi e italiani di Telegram, Twitter, Reddit, YouTube e Mastodon. Tra coloro che hanno condiviso le immagini e le hanno apparentemente trattate come se fossero autentiche c’era l’ex ambasciatore ucraino in Austria, Olexander Scherba. 

Allo stesso modo, immagini artefatte condivise da utenti di social network in lingua inglese, tedesca e italiana ritraevano Trump arrestato dalla polizia a Manhattan. Queste foto fittizie sono state create da Eliot Higgins, fondatore dell’organizzazione giornalistica olandese Bellingcat, che ha utilizzato il generatore di immagini IA Midjourney come monito per illustrare quanto ingannevoli possano essere tali immagini. Tuttavia, gli utenti dei social network hanno condiviso le foto per sostenere falsamente che Trump era stato effettivamente arrestato. (Secondo l’Associated Press, Higgins è stato successivamente bandito dalla piattaforma di Midjourney). 

La diffusione di queste immagini false segue il lancio, nel marzo 2023, di Midjourney V5, l’ultima versione del generatore di immagini dell’azienda, che afferma di avere “una qualità d’immagine molto più elevata, output più diversificati, una gamma stilistica più ampia” e “un migliore prompting delle immagini”. 

Midjourney è stato utilizzato anche per creare immagini false relative alle proteste francesi in occasione dello sciopero dei lavoratori della nettezza urbana, mostrando il presidente Emmanuel Macron, per esempio, scendere in piazza per protestare contro la sua stessa riforma delle pensioni e sedersi su cumuli di rifiuti. Su Truth Social, Trump ha condiviso un’immagine di se stesso, originariamente postata da un utente di Truth Social chiamato “Siggy Flicker”, che lo ritraeva in ginocchio a pregare. L’immagine era stata generata dall’intelligenza artificiale, anche se questo non veniva segnalato. Un articolo di Forbes ha infatti osservato che l’immagine sembra essere stata manipolata, in quanto a Trump manca un dito e “i suoi pollici sono innestati in un groviglio confuso che sembra sfidare l’anatomia umana”.

Dal risk briefing di NewsGuard sulla disinformazione del 28 marzo 2023

Quando i deepfake vengono scambiati per la realtà: Biden non ha chiesto l’introduzione della leva militare

Il 27 febbraio 2023 è iniziato a circolare un video che sembrerebbe mostrare il presidente degli Stati Uniti Joe Biden che invoca la leva militare in risposta alla minaccia per la sicurezza nazionale rappresentata dall’invasione dell’Ucraina da parte della Russia. Nel video, il presidente Biden afferma: “L’approccio migliore sarà quello di invocare la legge sul servizio selettivo, come è mia autorità in quanto presidente”. Secondo lo scenario delineato nel video, i ventenni sarebbero stati arruolati nell’esercito tramite una lotteria. 

In realtà, il presidente Biden non ha mai invocato la leva. Secondo il sito di fact-checking Snopes, il video è “un deepfake generato dall’IA [intelligenza artificiale]” che è stato originariamente twittato dall’organo di informazione conservatore The Post Millennial. Da parte sua, il Post Millennial ha riconosciuto che il video era un falso, affermando: “L’IA immagina cosa accadrebbe se Biden attivasse la legge sul servizio selettivo e iniziasse ad arruolare ventenni in guerra”. 

Ciononostante, il video è circolato ampiamente, spesso senza alcuna indicazione del fatto che fosse generato da IA. Ad esempio, @ThePatriotOasis, un account Twitter che si autodefinisce “conservatore costituzionale”, ha pubblicato il video in un tweet con la didascalia: “ULTIM’ORA: Biden chiede una leva nazionale. Uomini e donne saranno selezionati per combattere in Ucraina”. Il tweet, che tratta il video come se fosse reale, ha ottenuto 6,3 milioni di visualizzazioni al 2 marzo 2023. I numerosi commenti di risposta al tweet indicano che il video è stato preso sul serio da molti di coloro che lo hanno visto.

— Dal risk briefing di NewsGuard sulla disinformazione del 7 marzo 2023