Immagine: Alina Grubnyak via Unsplash

Centro di monitoraggio sull’IA: i 815 siti inaffidabili di ‘notizie generate dall’intelligenza artificiale’ (in continua crescita) e le principali narrazioni false prodotte da strumenti basati sull’IA

NewsGuard ha finora identificato 815 siti di notizie e informazioni generati dall'intelligenza artificiale che operano con poca o nessuna supervisione umana, e sta monitorando le narrazioni false prodotte da strumenti basati sull’IA.

A cura di McKenzie Sadeghi, Lorenzo Arvanitis, Virginia Padovese, Giulia Pozzi, Sara Badilini, Chiara Vercellone, Madeline Roache, Macrina Wang, Jack BrewsterNatalie Huet, Sam Howard, Andie Slomka, Leonie Pfaller e Louise Vallee | Ultimo aggiornamento: 8 maggio 2024

Dai siti di notizie inaffidabili generati dall’IA che operano con poca o nessuna supervisione umana, fino ad arrivare alle immagini prodotte da software basati su questa tecnologia: la diffusione di strumenti che sfruttano l’intelligenza artificiale generativa ha rappresentato un’autentica manna per le cosiddette ‘content farm’ e per i diffusori di misinformazione. 

Questo Centro di monitoraggio si propone di evidenziare le modalità con cui l’intelligenza artificiale generativa è stata impiegata per potenziare le operazioni di misinformazione e la diffusione di notizie inaffidabili. Il Centro include inoltre una selezione dei report, delle analisi e dei fact-checking di NewsGuard che riguardano l’intelligenza artificiale. 

Ad oggi, il team di NewsGuard ha identificato 815 siti di notizie e informazioni inaffidabili generate dall’intelligenza artificiale, denominati “UAIN” (dall’inglese “Unreliable AI-generated News”), in 16 lingue: arabo, cinese, ceco, coreano, francese, indonesiano, inglese, italiano, olandese, portoghese, russo, spagnolo, tagalog, tedesco, thailandese e turco.

Questi siti hanno solitamente nomi generici – come iBusiness Day, Ireland Top News e Daily Time Update – che agli occhi di un lettore comune potrebbero sembrare quelli di siti di notizie legittimi. Eppure, tali fonti, anziché offrire contenuti giornalistici creati e curati in modo tradizionale, operano con poca o nessuna supervisione umana, e pubblicano articoli scritti in gran parte o interamente da bot. Questi siti hanno sfornato decine e in alcuni casi centinaia di articoli su vari argomenti, tra cui politica, tecnologia, intrattenimento e viaggi. Gli articoli talvolta contengono affermazioni false, come ad esempio bufale sulla morte di personaggi famosi ed eventi inventati o datati, presentati però come se fossero appena accaduti. 

In molti casi, il modello di guadagno per questi siti è la pubblicità programmatica, in base alla quale l’industria della tecnologia pubblicitaria fornisce annunci pubblicitari senza tenere conto della natura o della qualità del sito. Di conseguenza, marchi rinomati stanno involontariamente sostenendo questi siti. Finché i brand non prenderanno provvedimenti per escludere le fonti non affidabili dalla lista di quelle autorizzate a pubblicare i loro annunci, le loro pubblicità continueranno a comparire su questo tipo di siti, creando un incentivo economico per il loro sviluppo su ampia scala. 

Oltre ai siti inclusi nel Centro di monitoraggio, gli analisti di NewsGuard hanno anche identificato un sito gestito dal governo cinese che cita informazioni generate dall’IA come fonte affidabile per sostenere la falsa teoria secondo cui gli Stati Uniti gestiscono un laboratorio di armi biologiche in Kazakistan. Secondo tale teoria, nel laboratorio verrebbero infettati dei cammelli per danneggiare la popolazione cinese. 

I ricercatori, le piattaforme, gli inserzionisti, le agenzie governative o altre istituzioni interessate ad accedere all’elenco completo dei domini o a ricevere dettagli sui nostri servizi per le aziende di IA generativa possono contattarci qui. Per avere più informazioni sui dataset di NewsGuard per le piattaforme IA, clicca qui. NewsGuard si occupa delle narrazioni di misinformazione generate dall’IA e di tutte le tendenze su questo tema nei suoi Misinformation Risk Briefing settimanali e nella sua newsletter Reality Check su Substack.

I domini inclusi in questo Centro di monitoraggio soddisfano tutti e quattro i seguenti criteri: 

  1. Esistono prove inconfutabili che una parte sostanziale dei contenuti del sito è prodotta dall’IA.
  2. Ci sono prove certe che i contenuti vengono pubblicati senza una significativa supervisione umana. Ad esempio, numerosi articoli contengono messaggi di errore o altre formule tipiche delle risposte dei chatbot, dimostrando dunque che il contenuto è stato prodotto da strumenti di IA senza un adeguato controllo. (È probabile che già oggi o in futuro molti siti di notizie si servano di strumenti di IA, ma a ciò uniscano anche un’efficace supervisione umana; questi siti non saranno considerati UAIN).
  3. Il modo in cui il sito si presenta potrebbe indurre il lettore medio a credere che i suoi contenuti siano prodotti da autori o giornalisti umani, perché ha un nome generico o innocuo, e l’aspetto o altri contenuti tipici dei siti di notizie e informazioni tradizionali.
  4. Il sito non rivela chiaramente che i suoi contenuti sono prodotti da IA.

Di seguito, una selezione dei report e degli studi di NewsGuard sull’IA:

BUFALA: Alcune foto del gennaio 2024 mostrano Joe Biden che indossa un’uniforme militare

 

Un’immagine di Biden generata da IA e condivisa dall’account X @Sprinter99800. (Screenshot di NewsGuard)

I FATTILe immagini che ritraggono il presidente degli Stati Uniti Joe Biden mentre indossa un’uniforme dell’esercito americano e si incontra con ufficiali militari nella Situation Room della Casa Bianca sono false e sembrerebbero essere state generate utilizzando l’intelligenza artificiale, secondo gli strumenti di rilevamento dell’IA e gli esperti di forensica digitale. Il presidente Biden non ha prestato servizio nell’esercito. Le foto, inoltre, non compaiono sul sito della Casa Bianca e non sono state pubblicate da alcuna testata attendibile.

Sembrerebbe che alcuni degli utenti che hanno condiviso le immagini del presidente Biden generate dall’intelligenza artificiale cerchino di alimentare il timore che possa aprirsi un conflitto più ampio in Medio Oriente. Altri siti e utenti dei social network hanno pubblicato le immagini per prendere in giro il presidente Biden, insinuando che stesse ingannando il pubblico indossando l’uniforme dell’esercito, pur non avendo mai prestato servizio militare.

Hive, uno strumento di rilevamento dell’intelligenza artificiale utilizzato da NewsGuard, ha classificato le immagini come generate al 100% dall’intelligenza artificiale. Tra gli indicatori dell’uso dell’IA vi sono le mani deformi di Biden, un cavo telefonico attaccato al suo braccio e una serie di oggetti misteriosi non identificabili sul tavolo. Anche secondo gli esperti di forensica digitale le immagini contengono segni rivelatori dell’uso dell’IA.

Le immagini generate dall’intelligenza artificiale del presidente Biden sono emerse sui social network in seguito all’attacco di un drone collegato all’Iran che ha ucciso tre soldati statunitensi in Giordania il 28 gennaio 2024. Le foto sono state condivise dalla testata russa controllata dallo Stato Inter Affairs Journal e dal sito pro-Cremlino South Front, e sono circolate in diverse lingue, tra cui arabo, cinese, inglese, russo e spagnolo

A cura di Natalie Adams

BUFALA: Alcuni video ritraggono il Comandante in Capo delle Forze armate ucraine che ordina ai militari di prendere il potere

Immagini di un video deepfake che mostra il comandante ucraino Zaluzhny invitare l’esercito a una rivolta armata. (Screenshot di NewsGuard)

I FATTI: Il comandante in capo delle forze armate ucraine Valerii Zaluzhny non ha invitato l’esercito ucraino a fare ammutinamento e a rovesciare il presidente Volodymyr Zelensky. I video in questione erano dei deepfake creati digitalmente. I deepfake sono foto, video o audio manipolati che ritraggono una persona che dice qualcosa che non ha mai detto.

Alla metà di novembre 2023, i canali Telegram pro-Cremlino hanno pubblicato tre deepfake in cui Zaluzhny sembrava invocare un colpo di stato contro Zelensky. “Esorto gli ucraini a protestare per le strade e tutti i difensori dell’Ucraina a […] prendere immediatamente le armi ed entrare a Kiev”, sembrava dire Zaluzhny in uno dei video. In un altro, Zaluzhny invitava l’esercito a “lasciare le trincee e ad andare a Kiev. È ora di rovesciare Zelensky”.

Dopo che i due deepfake di Zaluzhny si sono diffusi, è emerso un terzo video manipolato in cui il comandante sembrava negare che i primi due video fossero falsi.

In tutti e tre i video, le parole di Zaluzhny non sono sincronizzate con i movimenti della sua bocca, e i movimenti e le espressioni facciali sono innaturali, secondo quanto emerso da un’analisi di NewsGuard dei filmati. La società ucraina di fact-checking Vox Ukraine ha scoperto che tutti e tre i video sono stati creati utilizzando vecchi filmati che Zaluzhny aveva pubblicato sui social network nel febbraio 2022 e nel dicembre 2022, e che l’intelligenza artificiale è stata utilizzata per alterarli.

A cura di Eva Matiland

BUFALA: Un’immagine mostra un uomo che trasporta dei bambini fuori dalle macerie a Gaza 

I FATTI: L’immagine di un uomo che trasporta cinque bambini fuori dalle macerie, descritta sui social network come una foto reale raffigurante un salvataggio avvenuto a Gaza, sembrerebbe essere stata generata dall’intelligenza artificiale. I principali indizi che suggeriscono che l’immagine è stata generata dall’intelligenza artificiale sono un braccio estraneo avvolto intorno al collo dell’uomo, alcune irregolarità nelle mani e nei piedi e il fatto che un bambino sembri confondersi con la camicia dell’adulto.

“Questa immagine è quasi certamente generata dall’IA”, ha dichiarato all’agenzia di stampa Agence France-Presse Hany Farid, professore dell’Università della California, Berkeley, specializzato in digital forensics. “Oltre ai nostri modelli che la classificano come IA, ci sono segni rivelatori nell’immagine, come il braccio deformato dell’adulto”.

L’immagine generata dall’IA si è diffusa ampiamente su X, Instagram e Facebook in diverse lingue, tra cui inglese, turco e arabo.

A cura di Becca Schimmel

Di seguito, potete trovare una selezione di narrazioni false originate da strumenti di intelligenza artificiale, che NewsGuard ha identificato e smentito nel suo catalogo dei Misinformation Fingerprints:

BUFALA: Alcune foto del gennaio 2024 mostrano Joe Biden che indossa un’uniforme militare

 

Un’immagine di Biden generata da IA e condivisa dall’account X @Sprinter99800. (Screenshot di NewsGuard)

I FATTILe immagini che ritraggono il presidente degli Stati Uniti Joe Biden mentre indossa un’uniforme dell’esercito americano e si incontra con ufficiali militari nella Situation Room della Casa Bianca sono false e sembrerebbero essere state generate utilizzando l’intelligenza artificiale, secondo gli strumenti di rilevamento dell’IA e gli esperti di forensica digitale. Il presidente Biden non ha prestato servizio nell’esercito. Le foto, inoltre, non compaiono sul sito della Casa Bianca e non sono state pubblicate da alcuna testata attendibile.

Sembrerebbe che alcuni degli utenti che hanno condiviso le immagini del presidente Biden generate dall’intelligenza artificiale cerchino di alimentare il timore che possa aprirsi un conflitto più ampio in Medio Oriente. Altri siti e utenti dei social network hanno pubblicato le immagini per prendere in giro il presidente Biden, insinuando che stesse ingannando il pubblico indossando l’uniforme dell’esercito, pur non avendo mai prestato servizio militare.

Hive, uno strumento di rilevamento dell’intelligenza artificiale utilizzato da NewsGuard, ha classificato le immagini come generate al 100% dall’intelligenza artificiale. Tra gli indicatori dell’uso dell’IA vi sono le mani deformi di Biden, un cavo telefonico attaccato al suo braccio e una serie di oggetti misteriosi non identificabili sul tavolo. Anche secondo gli esperti di forensica digitale le immagini contengono segni rivelatori dell’uso dell’IA.

Le immagini generate dall’intelligenza artificiale del presidente Biden sono emerse sui social network in seguito all’attacco di un drone collegato all’Iran che ha ucciso tre soldati statunitensi in Giordania il 28 gennaio 2024. Le foto sono state condivise dalla testata russa controllata dallo Stato Inter Affairs Journal e dal sito pro-Cremlino South Front, e sono circolate in diverse lingue, tra cui arabo, cinese, inglese, russo e spagnolo

A cura di Natalie Adams

BUFALA: Alcuni video ritraggono il Comandante in Capo delle Forze armate ucraine che ordina ai militari di prendere il potere

Immagini di un video deepfake che mostra il comandante ucraino Zaluzhny invitare l’esercito a una rivolta armata. (Screenshot di NewsGuard)

I FATTI: Il comandante in capo delle forze armate ucraine Valerii Zaluzhny non ha invitato l’esercito ucraino a fare ammutinamento e a rovesciare il presidente Volodymyr Zelensky. I video in questione erano dei deepfake creati digitalmente. I deepfake sono foto, video o audio manipolati che ritraggono una persona che dice qualcosa che non ha mai detto.

Alla metà di novembre 2023, i canali Telegram pro-Cremlino hanno pubblicato tre deepfake in cui Zaluzhny sembrava invocare un colpo di stato contro Zelensky. “Esorto gli ucraini a protestare per le strade e tutti i difensori dell’Ucraina a […] prendere immediatamente le armi ed entrare a Kiev”, sembrava dire Zaluzhny in uno dei video. In un altro, Zaluzhny invitava l’esercito a “lasciare le trincee e ad andare a Kiev. È ora di rovesciare Zelensky”.

Dopo che i due deepfake di Zaluzhny si sono diffusi, è emerso un terzo video manipolato in cui il comandante sembrava negare che i primi due video fossero falsi.

In tutti e tre i video, le parole di Zaluzhny non sono sincronizzate con i movimenti della sua bocca, e i movimenti e le espressioni facciali sono innaturali, secondo quanto emerso da un’analisi di NewsGuard dei filmati. La società ucraina di fact-checking Vox Ukraine ha scoperto che tutti e tre i video sono stati creati utilizzando vecchi filmati che Zaluzhny aveva pubblicato sui social network nel febbraio 2022 e nel dicembre 2022, e che l’intelligenza artificiale è stata utilizzata per alterarli.

A cura di Eva Matiland

BUFALA: Un’immagine mostra un uomo che trasporta dei bambini fuori dalle macerie a Gaza 

I FATTI: L’immagine di un uomo che trasporta cinque bambini fuori dalle macerie, descritta sui social network come una foto reale raffigurante un salvataggio avvenuto a Gaza, sembrerebbe essere stata generata dall’intelligenza artificiale. I principali indizi che suggeriscono che l’immagine è stata generata dall’intelligenza artificiale sono un braccio estraneo avvolto intorno al collo dell’uomo, alcune irregolarità nelle mani e nei piedi e il fatto che un bambino sembri confondersi con la camicia dell’adulto.

“Questa immagine è quasi certamente generata dall’IA”, ha dichiarato all’agenzia di stampa Agence France-Presse Hany Farid, professore dell’Università della California, Berkeley, specializzato in digital forensics. “Oltre ai nostri modelli che la classificano come IA, ci sono segni rivelatori nell’immagine, come il braccio deformato dell’adulto”.

L’immagine generata dall’IA si è diffusa ampiamente su X, Instagram e Facebook in diverse lingue, tra cui inglese, turco e arabo.

A cura di Becca Schimmel