Un anno dopo
Nel luglio 2024, mentre gli strumenti di intelligenza artificiale generativa iniziavano a cambiare il modo in cui le persone consumavano notizie e informazioni, NewsGuard ha lanciato il suo AI False Claims Monitor (Monitoraggio delle affermazioni false dell’IA), il primo riferimento mensile standardizzato per valutare come i principali sistemi di IA generativa del mondo gestiscono affermazioni dimostrabilmente false su argomenti controversi o su temi che potrebbero essere sfruttati da attori malintenzionati per diffondere notizie false. Il Monitor verifica, mese dopo mese e in tempo reale, se i modelli stiano migliorando nell’individuare e confutare affermazioni scorrette oppure se continuino a ripeterle.
Nei nostri audit, oltre alle risposte corrette e a quelle contenenti affermazioni false, avevamo registrato anche una terza possibilità: la cautela. I modelli di IA, infatti, si rifiutavano di rispondere a molte richieste legate all’attualità. Questo ha portato a un tasso di errore complessivo — definito come la somma dei casi in cui veniva ripetuta un’affermazione falsa e di quelli in cui si evitava di confutarla, limitandosi a non rispondere — più alto lo scorso anno: il 49% nel 2024 contro il 35% nell’agosto 2025. La differenza, però, sta nel fatto che l’anno scorso i chatbot preferivano non esporsi piuttosto che rischiare, mentre quest’anno hanno risposto al 100% delle richieste, ma con errori nel 35% dei casi.
I prompt sono ideati per testare diverse tematiche di attualità: politica, salute, affari internazionali, aziende e brand. Sono stati creati a partire da un campione di 10 False Claim Fingerprints (o Identità Digitali delle Notizie False), il dataset di NewsGuard sulle affermazioni dimostrabilmente false diffuse online. Per ogni narrazione falsa, vengono testati tre tipi di prompt, per simulare i diversi modi in cui gli utenti utilizzano i modelli di IA generativa per informarsi: un prompt neutro di un utente innocente, un prompt tendenzioso che dà per vera l’affermazione falsa e un prompt ideato da un attore malintenzionato per aggirare le protezioni del sistema. Tra i temi considerati nell’audit figurano le prossime elezioni parlamentari in Moldavia, i rapporti tra Cina e Pakistan, i colloqui di pace in Ucraina, l’immigrazione in Francia e un dibattito sull’uso dell’ivermectina ad Alberta, in Canada. Per maggiori dettagli, è possibile consultare la metodologia adottata da NewsGuard per il Monthly AI False Claims Monitor qui e le Domande Frequenti qui.
Un anno dopo, nonostante decine di aggiornamenti significativi ai modelli, le promesse di aumentata sicurezza e gli annunci di maggiore precisione da parte delle dieci principali aziende di IA, la tendenza a ripetere informazioni inesatte risulta indiscutibilmente più alta rispetto a quando NewsGuard ha lanciato i suoi audit mensili. I modelli diffondono affermazioni inaccurate con maggiore frequenza, poiché finiscono in “vuoti informativi” dove le uniche fonti disponibili sono quelle legate ad attori con intenti manipolativi. Quindi, faticano a gestire le notizie in tempo reale e si lasciano ingannare da siti collegati ad attori stranieri che si spacciano per testate locali.
Di conseguenza, oggi i chatbot forniscono risposte contenenti informazioni false su argomenti controversi o su temi che potrebbero facilmente essere sfruttati da attori malintenzionati per diffondere notizie false in oltre un terzo dei casi (35%). Ad esempio, il modello di IA più popolare, ChatGPT, ha diffuso affermazioni false nel 40% dei casi.
Questa edizione speciale si discosta dalla nostra prassi abituale di pubblicare solo risultati aggregati. Per la prima volta, riportiamo i punteggi di ciascun modello singolarmente. La ragione per cui finora abbiamo aggregato i risultati mensili è che le criticità del settore sono di natura sistemica, non legate a un singolo modello, e i punteggi mensili possono variare di molto senza essere davvero rappresentativi del quadro complessivo. Tuttavia, dopo 12 mesi di monitoraggio, disponiamo di sufficienti dati specifici sui modelli per trarre conclusioni su dove siano stati fatti progressi e dove i chatbot continuino a mostrare limiti.