12/03/2026

NewsGuard lancia un feed di dati in tempo reale per individuare le content farm prodotte con l’intelligenza artificiale e contrastare l’ondata di contenuti generati dall’IA nel mercato delle notizie

La tecnologia di rilevamento dell’IA di Pangram Labs, combinata con dati esclusivi di NewsGuard e il lavoro dei suoi analisti, consente di individuare istantaneamente oltre 3.000 content farm prodotte con l’IA, proteggendo lettori e inserzionisti dalla proliferazione di fonti di questo tipo.

New York, NY NewsGuard ha annunciato oggi il lancio del suo nuovo feed di dati per individuare le content farm prodotte con l’IA. Questo servizio di monitoraggio avverte utenti, piattaforme e inserzionisti ogni volta che si imbattono nei sempre più numerosi siti che producono in massa articoli generati dall’intelligenza artificiale, spesso contenenti informazioni inaccurate, con l’obiettivo di generare ricavi pubblicitari o diffondere propaganda.

Il nuovo sistema, sviluppato in collaborazione con Pangram Labs, si basa sulle analisi di NewsGuard delle content farm prodotte con l’IA, tra le più avanzate del settore. Combinando i dati esclusivi di NewsGuard con il software automatico di rilevamento dell’intelligenza artificiale di Pangram Labs, il sistema identifica i siti di notizie e informazione in cui una parte significativa dei contenuti sembra essere generata dall’IA. Gli analisti di NewsGuard verificano poi i risultati per confermarli ed eliminare eventuali falsi positivi.

Il sistema ha già permesso a NewsGuard di individuare 3.006 siti classificati come content farm prodotte con l’IA, un numero che è più che raddoppiato nell’ultimo anno. Il fenomeno è in rapida crescita e aumenta attualmente al ritmo di 300-500 nuovi siti al mese.

NewsGuard classifica i siti come content farm prodotte con l’IA sulla base di tre criteri:

  • presenza significativa di contenuti generati dall’IA: una parte significativa dei contenuti del sito è prodotta con l’intelligenza artificiale, secondo l’analisi dello strumento di rilevamento fornito da Pangram Labs;
  • mancata segnalazione dell’uso dell’IA: il sito non indica chiaramente che i contenuti sono prodotti con l’intelligenza artificiale, diversamente da molte testate giornalistiche legittime che utilizzano l’IA come supporto al lavoro redazionale e, quando lo fanno, lo dichiarano in modo chiaro e responsabile;
  • presentazione fuorviante: il sito è presentato in modo tale che un lettore medio possa ritenere che i contenuti siano scritti da autori o giornalisti.

Questi siti, che spesso hanno nomi generici come Times Business News e Business Post, tendono anche a pubblicare decine di articoli al giorno e sono spesso all’origine di affermazioni false riguardanti grandi marchi, salute pubblica, leader politici e celebrità.

Ad esempio, nell’ottobre 2025, una content farm prodotta con l’IA chiamata “News 24” ha diffuso la notizia falsa secondo cui Coca-Cola avrebbe minacciato di ritirare la propria sponsorizzazione del Super Bowl se il rapper portoricano Bad Bunny si fosse esibito durante lo spettacolo dell’intervallo della NFL. La notizia, come detto, era falsa: Coca-Cola, infatti, non era sponsor del Super Bowl. Tuttavia, la pagina conteneva numerose pubblicità di marchi di primo piano, tra cui Expedia, AT&T, YouTube, Priceline, Hotels.com, Skechers e GoDaddy.

Un’altra content farm prodotta con l’IA, “CitizenWatchReport”, ha diffuso l’affermazione falsa secondo cui due senatori statunitensi avrebbero speso 814.000 dollari in hotel in Ucraina. Questa notizia è stata amplificata dai media statali russi prima di diffondersi su account social molto seguiti negli Stati Uniti.

“Con questo nuovo database e questa nuova capacità di analisi, NewsGuard aiuta i propri clienti in diversi settori a non essere ingannati dai contenuti non autentici, intervenendo sul modello di business delle content farm prodotte con l’IA che abusano delle piattaforme tecnologiche e pubblicitarie per attirare click e ricavi pubblicitari, o per diffondere propaganda”, ha dichiarato Dimitris Dimitriadis, Direttore responsabile di Ricerca e Sviluppo a NewsGuard.

“Ovviamente, lettori e inserzionisti stanno sprecando tempo e denaro su siti che pubblicano affermazioni infondate su celebrità, marchi e funzionari pubblici. Queste affermazioni poi vengono amplificate sui canali online e sui social network, inquinando ulteriormente l’ecosistema informativo”, ha aggiunto Matt Skibinski, Chief Operating Officer di NewsGuard. “Ora stiamo individuando e identificando siti di questo tipo, con una media di decine al giorno, e li stiamo aggiungendo al nostro database affinché gli inserzionisti non finiscano per finanziarli”.

“La recente proliferazione di contenuti generati dall’intelligenza artificiale sta mettendo a rischio il web così come lo abbiamo conosciuto fino ad ora”, ha dichiarato Max Spero, cofondatore e CEO di Pangram Labs. “Anche se non possiamo impedire la diffusione di contenuti di bassa qualità generati dall’IA, siamo orgogliosi di collaborare con NewsGuard per impedire a soggetti malintenzionati di utilizzare le notizie generate dall’intelligenza artificiale per inquinare il nostro ecosistema informativo”.

Come proteggere gli inserzionisti dalle content farm prodotte con l’IA create per monetizzare con la pubblicità

Il nuovo sistema di NewsGuard per individuare le content farm prodotte con l’IA offre una nuova forma di tutela per gli inserzionisti che vogliono assicurarsi che i propri annunci compaiano in contesti sicuri e appropriati. Molte di queste content farm sono siti creati esclusivamente per generare ricavi pubblicitari, progettati per pubblicare in massa contenuti di bassa qualità e attirare entrate dalla pubblicità programmatica. NewsGuard aveva già segnalato che fino a 141 marchi di primo piano avevano pubblicato annunci su siti di questo tipo nell’arco di due mesi.

Gli inserzionisti possono utilizzare il feed di dati di NewsGuard sulle content farm prodotte con l’IA per evitare che i loro annunci compaiano su questi siti e garantirne la presenza in contesti editoriali più sicuri. Il feed di dati è integrato nei filtri applicati prima dell’asta pubblicitaria (segmenti pre-bid) nelle principali piattaforme di acquisto, come The Trade Desk, oppure può essere concesso in licenza direttamente da NewsGuard a un marchio o alla sua agenzia pubblicitaria.

Individuare in tempo reale reti di influenza straniera ostile

Il feed di dati individua anche siti web creati da attori ostili legati a Paesi quali Russia, Cina e Iran. Si tratta di siti progettati esplicitamente per  diffondere disinformazione. Tra questi rientrano, ad esempio, 358 content farm prodotte con l’IA che NewsGuard ha collegato a Storm-1516, un’operazione di influenza filo-russa che produce e diffonde contenuti falsi o fuorvianti su siti progettati per sembrare siti di notizie locali negli Stati Uniti e in Europa.

“Grazie ai nostri dati esclusivi e aggiornati in tempo reale, consumatori, inserzionisti e aziende che sviluppano sistemi di intelligenza artificiale possono proteggersi dagli effetti dannosi dei contenuti di bassa qualità generati dall’IA, sia quando sono motivati da interessi economici sia quando hanno finalità politiche”, ha dichiarato Dimitriadis.

Grafico di NewsGuard

Informazioni su NewsGuard

NewsGuard aiuta consumatori e aziende a individuare informazioni affidabili online attraverso dati e strumenti trasparenti e apolitici. Fondata nel 2018 dall’imprenditore dei media e giornalista pluripremiato Steven Brill e dall’ex editore del Wall Street Journal Gordon Crovitz, NewsGuard impiega un team globale di analisti dell’affidabilità dell’informazione che raccoglie, aggiorna e rende disponibili oltre 7 milioni di dati relativi a più di 35.000 fonti di notizie e informazioni, catalogando e monitorando le principali narrazioni false diffuse online.

I dataset di NewsGuard, aggiornati in modo continuativo e disponibili in tempo reale, possono essere concessi in licenza ad aziende tecnologiche, ricercatori e altri soggetti interessati a difendersi dalle operazioni di influenza straniera ostile e a tutelare l’integrità dell’informazione.

Informazioni su Pangram Labs

Pangram Labs è un’azienda leader nello sviluppo di sistemi per il rilevamento di contenuti generati dall’intelligenza artificiale, con prestazioni che superano quelle di altri fornitori in termini di accuratezza, affidabilità e qualità delle informazioni.

I sistemi di rilevamento di Pangram sono usati da migliaia di aziende: da chi si occupa di moderazione dei contenuti generati dall’IA sulle piattaforme dei social network a chi vuole identificare delle recensioni false generate dall’intelligenza artificiale. Fondata da ex compagni di corso della Stanford University, Pangram è nota per essere la soluzione avanzata e precisa per la valutazione dell’autenticità dei contenuti scritti.