Immagine: Alina Grubnyak via Unsplash

Centro di monitoraggio sull’IA: 957 siti inaffidabili di ‘notizie generate dall’intelligenza artificiale’ (in continua crescita) e le principali narrazioni false prodotte da strumenti basati sull’IA

NewsGuard ha finora identificato 957 siti di notizie e informazioni generati dall'intelligenza artificiale che operano con poca o nessuna supervisione umana, e sta monitorando le narrazioni false prodotte da strumenti basati sull’IA.

A cura di McKenzie Sadeghi, Lorenzo Arvanitis, Virginia Padovese, Giulia Pozzi, Sara Badilini, Chiara Vercellone, Macrina Wang, Jack BrewsterNatalie Huet, Sam Howard, Andie Slomka, Leonie Pfaller e Louise Vallee | Ultimo aggiornamento: 13 giugno 2024

Dai siti di notizie inaffidabili generati dall’IA che operano con poca o nessuna supervisione umana, fino ad arrivare alle immagini prodotte da software basati su questa tecnologia: la diffusione di strumenti che sfruttano l’intelligenza artificiale generativa ha rappresentato un’autentica manna per le cosiddette ‘content farm’ e per i diffusori di misinformazione. 

Questo Centro di monitoraggio si propone di evidenziare le modalità con cui l’intelligenza artificiale generativa è stata impiegata per potenziare le operazioni di misinformazione e la diffusione di notizie inaffidabili. Il Centro include inoltre una selezione dei report, delle analisi e dei fact-checking di NewsGuard che riguardano l’intelligenza artificiale. 

Ad oggi, il team di NewsGuard ha identificato 957  siti di notizie e informazioni inaffidabili generate dall’intelligenza artificiale, denominati “UAIN” (dall’inglese “Unreliable AI-generated News”), in 16 lingue: arabo, cinese, ceco, coreano, francese, indonesiano, inglese, italiano, olandese, portoghese, russo, spagnolo, tagalog, tedesco, thailandese e turco.

Questi siti hanno solitamente nomi generici – come iBusiness Day, Ireland Top News e Daily Time Update – che agli occhi di un lettore comune potrebbero sembrare quelli di siti di notizie legittimi. Eppure, tali fonti, anziché offrire contenuti giornalistici creati e curati in modo tradizionale, operano con poca o nessuna supervisione umana, e pubblicano articoli scritti in gran parte o interamente da bot. Questi siti hanno sfornato decine e in alcuni casi centinaia di articoli su vari argomenti, tra cui politica, tecnologia, intrattenimento e viaggi. Gli articoli talvolta contengono affermazioni false, come ad esempio bufale sulla morte di personaggi famosi ed eventi inventati o datati, presentati però come se fossero appena accaduti. 

In molti casi, il modello di guadagno per questi siti è la pubblicità programmatica, in base alla quale l’industria della tecnologia pubblicitaria fornisce annunci pubblicitari senza tenere conto della natura o della qualità del sito. Di conseguenza, marchi rinomati stanno involontariamente sostenendo questi siti. Finché i brand non prenderanno provvedimenti per escludere le fonti non affidabili dalla lista di quelle autorizzate a pubblicare i loro annunci, le loro pubblicità continueranno a comparire su questo tipo di siti, creando un incentivo economico per il loro sviluppo su ampia scala. 

Oltre ai siti inclusi nel Centro di monitoraggio, gli analisti di NewsGuard hanno anche identificato un sito gestito dal governo cinese che cita informazioni generate dall’IA come fonte affidabile per sostenere la falsa teoria secondo cui gli Stati Uniti gestiscono un laboratorio di armi biologiche in Kazakistan. Secondo tale teoria, nel laboratorio verrebbero infettati dei cammelli per danneggiare la popolazione cinese. NewsGuard ha anche identificato una rete di 167 siti di notizie che si spacciano per organi di informazione locali ma hanno legami con la Russia, pubblicano affermazioni false o palesemente fuorvianti sulla guerra in Ucraina e utilizzano prevalentemente l’intelligenza artificiale per generare contenuti.

I ricercatori, le piattaforme, gli inserzionisti, le agenzie governative o altre istituzioni interessate ad accedere all’elenco completo dei domini o a ricevere dettagli sui nostri servizi per le aziende di IA generativa possono contattarci qui. Per avere più informazioni sui dataset di NewsGuard per le piattaforme IA, clicca qui. NewsGuard si occupa delle narrazioni di misinformazione generate dall’IA e di tutte le tendenze su questo tema nei suoi Misinformation Risk Briefing settimanali e nella sua newsletter Reality Check su Substack.

I domini inclusi in questo Centro di monitoraggio soddisfano tutti e quattro i seguenti criteri: 

  1. Esistono prove inconfutabili che una parte sostanziale dei contenuti del sito è prodotta dall’IA.
  2. Ci sono prove certe che i contenuti vengono pubblicati senza una significativa supervisione umana. Ad esempio, numerosi articoli contengono messaggi di errore o altre formule tipiche delle risposte dei chatbot, dimostrando dunque che il contenuto è stato prodotto da strumenti di IA senza un adeguato controllo. (È probabile che già oggi o in futuro molti siti di notizie si servano di strumenti di IA, ma a ciò uniscano anche un’efficace supervisione umana; questi siti non saranno considerati UAIN).
  3. Il modo in cui il sito si presenta potrebbe indurre il lettore medio a credere che i suoi contenuti siano prodotti da autori o giornalisti umani, perché ha un nome generico o innocuo, e l’aspetto o altri contenuti tipici dei siti di notizie e informazioni tradizionali.
  4. Il sito non rivela chiaramente che i suoi contenuti sono prodotti da IA.

Di seguito, una selezione dei report e degli studi di NewsGuard sull’IA:

Di seguito, potete trovare una selezione di narrazioni false originate da strumenti di intelligenza artificiale, che NewsGuard ha identificato e smentito nel suo catalogo dei Misinformation Fingerprints:

BUFALA: Alcune foto del gennaio 2024 mostrano Joe Biden che indossa un’uniforme militare

 

Un’immagine di Biden generata da IA e condivisa dall’account X @Sprinter99800. (Screenshot di NewsGuard)

I FATTILe immagini che ritraggono il presidente degli Stati Uniti Joe Biden mentre indossa un’uniforme dell’esercito americano e si incontra con ufficiali militari nella Situation Room della Casa Bianca sono false e sembrerebbero essere state generate utilizzando l’intelligenza artificiale, secondo gli strumenti di rilevamento dell’IA e gli esperti di forensica digitale. Il presidente Biden non ha prestato servizio nell’esercito. Le foto, inoltre, non compaiono sul sito della Casa Bianca e non sono state pubblicate da alcuna testata attendibile.

Sembrerebbe che alcuni degli utenti che hanno condiviso le immagini del presidente Biden generate dall’intelligenza artificiale cerchino di alimentare il timore che possa aprirsi un conflitto più ampio in Medio Oriente. Altri siti e utenti dei social network hanno pubblicato le immagini per prendere in giro il presidente Biden, insinuando che stesse ingannando il pubblico indossando l’uniforme dell’esercito, pur non avendo mai prestato servizio militare.

Hive, uno strumento di rilevamento dell’intelligenza artificiale utilizzato da NewsGuard, ha classificato le immagini come generate al 100% dall’intelligenza artificiale. Tra gli indicatori dell’uso dell’IA vi sono le mani deformi di Biden, un cavo telefonico attaccato al suo braccio e una serie di oggetti misteriosi non identificabili sul tavolo. Anche secondo gli esperti di forensica digitale le immagini contengono segni rivelatori dell’uso dell’IA.

Le immagini generate dall’intelligenza artificiale del presidente Biden sono emerse sui social network in seguito all’attacco di un drone collegato all’Iran che ha ucciso tre soldati statunitensi in Giordania il 28 gennaio 2024. Le foto sono state condivise dalla testata russa controllata dallo Stato Inter Affairs Journal e dal sito pro-Cremlino South Front, e sono circolate in diverse lingue, tra cui arabo, cinese, inglese, russo e spagnolo

A cura di Natalie Adams

BUFALA: Alcuni video ritraggono il Comandante in Capo delle Forze armate ucraine che ordina ai militari di prendere il potere

Immagini di un video deepfake che mostra il comandante ucraino Zaluzhny invitare l’esercito a una rivolta armata. (Screenshot di NewsGuard)

I FATTI: Il comandante in capo delle forze armate ucraine Valerii Zaluzhny non ha invitato l’esercito ucraino a fare ammutinamento e a rovesciare il presidente Volodymyr Zelensky. I video in questione erano dei deepfake creati digitalmente. I deepfake sono foto, video o audio manipolati che ritraggono una persona che dice qualcosa che non ha mai detto.

Alla metà di novembre 2023, i canali Telegram pro-Cremlino hanno pubblicato tre deepfake in cui Zaluzhny sembrava invocare un colpo di stato contro Zelensky. “Esorto gli ucraini a protestare per le strade e tutti i difensori dell’Ucraina a […] prendere immediatamente le armi ed entrare a Kiev”, sembrava dire Zaluzhny in uno dei video. In un altro, Zaluzhny invitava l’esercito a “lasciare le trincee e ad andare a Kiev. È ora di rovesciare Zelensky”.

Dopo che i due deepfake di Zaluzhny si sono diffusi, è emerso un terzo video manipolato in cui il comandante sembrava negare che i primi due video fossero falsi.

In tutti e tre i video, le parole di Zaluzhny non sono sincronizzate con i movimenti della sua bocca, e i movimenti e le espressioni facciali sono innaturali, secondo quanto emerso da un’analisi di NewsGuard dei filmati. La società ucraina di fact-checking Vox Ukraine ha scoperto che tutti e tre i video sono stati creati utilizzando vecchi filmati che Zaluzhny aveva pubblicato sui social network nel febbraio 2022 e nel dicembre 2022, e che l’intelligenza artificiale è stata utilizzata per alterarli.

A cura di Eva Matiland

BUFALA: Un’immagine mostra un uomo che trasporta dei bambini fuori dalle macerie a Gaza 

I FATTI: L’immagine di un uomo che trasporta cinque bambini fuori dalle macerie, descritta sui social network come una foto reale raffigurante un salvataggio avvenuto a Gaza, sembrerebbe essere stata generata dall’intelligenza artificiale. I principali indizi che suggeriscono che l’immagine è stata generata dall’intelligenza artificiale sono un braccio estraneo avvolto intorno al collo dell’uomo, alcune irregolarità nelle mani e nei piedi e il fatto che un bambino sembri confondersi con la camicia dell’adulto.

“Questa immagine è quasi certamente generata dall’IA”, ha dichiarato all’agenzia di stampa Agence France-Presse Hany Farid, professore dell’Università della California, Berkeley, specializzato in digital forensics. “Oltre ai nostri modelli che la classificano come IA, ci sono segni rivelatori nell’immagine, come il braccio deformato dell’adulto”.

L’immagine generata dall’IA si è diffusa ampiamente su X, Instagram e Facebook in diverse lingue, tra cui inglese, turco e arabo.

A cura di Becca Schimmel

Di seguito, una selezione di alcuni dei trend nel campo dell'IA identificati da NewsGuard nei suoi briefing confidenziali per i clienti, come i rapporti incentrati sulla misinformazione e sulla disinformazione provenienti da Russia, Cina e Iran.

L’intelligenza artificiale influenza la percezione della guerra tra Israele e Hamas

Una raccolta di immagini virali generate dall’intelligenza artificiale che vengono spacciate per scene del conflitto Israele-Hamas

I feed di Instagram, TikTok e X si sono riempiti di immagini false, generate dall’intelligenza artificiale, della guerra tra Israele e Hamas. Le piattaforme dei social network, le aziende produttrici di software basati sull’intelligenza artificiale e i ricercatori non sembrano avere una soluzione al problema.

Che cosa è successo: le foto generate dall’intelligenza artificiale che sembrano ritrarre scene della guerra tra Israele e Hamas hanno generato milioni di interazioni sulle principali piattaforme social dall’inizio del conflitto.

Perché è importante: le foto sono state utilizzate da attori malintenzionati appartenenti a entrambi gli schieramentii per promuovere la loro agenda. Soltanto un terzo (32%) circa delle foto false trovate da NewsGuard era accompagnato da un fact-checking.

A cura di Jack Brewster e McKenzie Sadeghi

— Dalla newsletter di NewsGuard Reality Check del 22 febbraio 2024

I deepfake russi sulla guerra stanno diventando sempre più convincenti

I progressi della tecnologia: due deepfake di Zelensky del marzo 2022 (a sinistra) e del novembre 2023 (a destra). (Screenshot di NewsGuard)

Nell’ambito di una campagna volta a seminare dissenso nel governo e nelle forze armate ucraini, i canali Telegram pro-Cremlino stanno diffondendo deepfake del presidente ucraino Volodymyr Zelensky e del comandante in capo delle forze armate ucraine Valerii Zaluzhny, sfruttando i progressi tecnologici che rendono questi video più realistici che mai.

I video mostrano un salto di qualità nella tecnologia deepfake dall’inizio della guerra nel febbraio 2022. Ad esempio, in un video falso del marzo 2022, il volto di Zelensky era pixelato, la sua testa appariva troppo grande e sembrava incollata al suo corpo, e la figura del Presidente ucraino appariva innaturalmente immobile. I video più recenti sono invece in alta definizione, i movimenti sono fluidi e naturali e il labiale è sincronizzato in modo più preciso con le parole pronunciate.

Felix Simon, ricercatore presso il Reuters Institute for the Study of Journalism e dottorando presso l’Oxford Internet Institute, ha dichiarato a NewsGuard in un’email del novembre 2023 che i recenti miglioramenti degli strumenti di intelligenza artificiale rendono sempre più difficile riconoscere i video falsi.

“I progressi nel campo delle reti neurali profonde basate su trasformatori hanno portato all’emergere di sistemi di ‘IA generativa’ pubblicamente utilizzabili”, ha dichiarato Simon. “Questi sistemi sono in grado di generare nuove forme di dati, compresi quelli visivi o audio, con grande velocità e facilità per la maggior parte degli utenti. A seconda delle istruzioni, questo output è sufficientemente sofisticato da essere percepito dagli esseri umani come indistinguibile, ad esempio, dai contenuti generati dall’uomo o da quelli creati con una telecamera fisica”.

Il Centro ucraino per la Lotta alla Disinformazione (CPD), che fa parte del Consiglio per la Sicurezza nazionale e la Difesa dell’Ucraina, ha dichiarato che la qualità dei recenti deepfake “suggerisce il coinvolgimento di forze e mezzi significativi” e potrebbe essere un segno che sono stati creati con “il coinvolgimento dei servizi speciali russi”. (NewsGuard non ha potuto confermare in modo indipendente se interessi statali russi fossero coinvolti nella creazione dei video).

A cura di Eva Maitland

— Dal Misinformation Risk Briefing di NewsGuard del 22 novembre 2023

L’Iran sostiene, supportata dall’IA, che lo “psichiatra” di Netanyahu sia morto suicida

La prima pagina del Tehran Times del 25 settembre 2023, con un articolo “esclusivo” sulle “condizioni psichiatriche” di Netanyahu. (Screenshot di NewsGuard)

Le testate giornalistiche statali iraniane hanno utilizzato un sito di notizie inaffidabile generato dall’intelligenza artificiale per affermare falsamente che lo “psichiatra” del primo ministro israeliano Benjamin Netanyahu è morto suicida, come parte di una più ampia campagna mediatica che tenta di dipingere Netanyahu come mentalmente instabile.

L’affermazione secondo cui il presunto psicologo “Moshe Yatom” sia morto suicida e abbia lasciato una lettera d’addio che riguarda Netanyahu è stata avanzata dal Canale Due della Repubblica Islamica dell’Iran Broadcasting, dai siti iraniani Arya News Agency, Saheb Khabar e Ghatreh, che hanno tutti citato un articolo del sito di notizie pakistano Global Village Space.

In realtà, una ricerca di NewsGuard non ha identificato nessuno psichiatra in Israele con il nome di Moshe Yatom, e, in generale, nessun individuo con un nome simile che sia morto di recente. La fonte citata dagli utenti e dai siti iraniani, Global Village Space, è un sito inaffidabile di notizie generate dall’intelligenza artificiale, identificato da NewsGuard come un sito che pubblica prevalentemente notizie generate dall’IA, con una minima supervisione editoriale umana e senza rivelare in modo trasparente questa pratica ai lettori.

La narrazione è stata ripresa dai media iraniani nel corso della guerra tra Israele e Hamas, in apparenza con l’obiettivo di ritrarre Netanyahu come inadatto al suo ruolo: il Tehran Times, la Tasnim News Agency e altri hanno pubblicato articoli secondo cui Netanyahu avrebbe una “condizione psichiatrica”. A seguito degli attacchi terroristici del 7 ottobre 2023 in Israele da parte di Hamas, finanziato e armato dall’Iran, il governo di coalizione di Netanyahu ha dichiarato guerra ad Hamas a Gaza. 

Di McKenzie Sadeghi

— Dallo State-Sponsored Disinformation Risk Briefing di NewsGuard del 16 novembre 2023