18/03/2024

NewsGuard lancia un pacchetto di servizi per proteggere in tempo reale i prodotti basati sull’IA dalla misinformazione elettorale diffusa tramite testo, immagini, video e audio

Grazie al monitoraggio costante della misinformazione elettorale e ai servizi di red-teaming in tempo reale, NewsGuard aiuta i prodotti basati sull’intelligenza artificiale a fornire risposte affidabili ai prompt che riguardano le elezioni e a proteggersi da possibili manipolazioni da parte di utenti malintenzionati.

(New York, 18 marzo 2024) NewsGuard, che grazie a giornalisti esperti e tecnologie avanzate rileva, analizza e acquisisce dati sulla misinformazione che si diffonde online, annuncia oggi di aver lanciato un pacchetto di servizi per salvaguardare i prodotti di intelligenza artificiale dalla misinformazione elettorale. In un anno caratterizzato da più di 40 importanti appuntamenti elettorali in tutto il mondo, i nuovi strumenti proteggeranno i prodotti basati sull’intelligenza artificiale da possibili manipolazioni o dal rischio che diffondano involontariamente misinformazione potenzialmente dannosa.

Il mese scorso, NewsGuard ha annunciato il lancio del suo Centro di monitoraggio della misinformazione sulle elezioni del 2024, nell’ambito del quale il suo team globale di analisti sta monitorando costantemente l’ambiente informativo per individuare fonti e narrazioni di misinformazione relative alle elezioni che si svolgeranno in tutto il mondo nel 2024. Il pacchetto di strumenti annunciato oggi sfrutta i dati acquisiti attraverso il monitoraggio continuo effettuato da NewsGuard per fornire una serie di salvaguardie ai fornitori di prodotti IA.

I servizi, noti come ‘AI Election Safety Suite’, comprendono cinque offerte complementari e personalizzabili per adattarsi alle sfide e agli obiettivi specifici delle aziende di IA:

  • Rilevamento continuo della misinformazione elettorale. Attraverso il suo Centro di monitoraggio, il team di analisti di NewsGuard sfrutta i suoi dati proprietari sull’affidabilità di oltre 35.000 siti di notizie, account di social network, canali video e contenuti audio per monitorare i diffusori di misinformazione elettorale noti e rilevare il prima possibile le narrazioni false che diffondono online.
  • Produzione di Fingerprint sulla misinformazione elettorale. Un flusso continuamente aggiornato di dati affidabili e tempestivi su contenuti di misinformazione elettorale in un formato leggibile dalle macchine, progettati per fornire una protezione immediata. Ciascun Fingerprint contiene citazioni specifiche utilizzate per veicolare la narrazione; parole chiave, hashtag e termini di ricerca correlati alla narrazione; esempi della narrazione stessa sui social network e URL di articoli scritti in più lingue e provenienti da diverse aree geografiche; informazioni sulla provenienza e sulla diffusione della narrazione di misinformazione e altri dati progettati per consentire alle società di intelligenza artificiale di rilevare automaticamente i prompt e le risposte che potrebbero veicolare tale narrazione.
  • Test del rischio della misinformazione elettorale in tempo reale. Quando viene rilevata una nuova narrazione falsa sulle elezioni, il team internazionale di analisti di NewsGuard testa i prodotti IA per la creazione di immagini, video, audio e testo per vedere come rispondono a richieste relative a quella narrazione di misinformazione in tempo reale. I clienti ricevono così continuamente dati sulla valutazione del rischio, compresi i prompt utilizzati per i test e le risposte ottenute, in modo che i loro team che si occupano di sicurezza possano identificare facilmente eventuali lacune e aree di rischio.
  • Red Teaming di immagini, video, audio e testi sulla misinformazione elettorale. Basandosi su un’ampia conoscenza delle tattiche e delle motivazioni degli attori malintenzionati che diffondono misinformazione, gli analisti di NewsGuard testano i prodotti di IA generativa per verificare la loro propensione a produrre nuova misinformazione o a creare deepfake convincenti. I clienti ricevono quindi dati immediati sulle richieste fornite ai software e sugli output generati per individuare le tecniche che potrebbero essere utilizzate da utenti malintezionati per manipolare i sistemi IA e aggirarne i sistemi di sicurezza. Alle aziende saranno inoltre fornite valutazioni sul grado di protezione del sistema contro tali utilizzi, oltre a ulteriori dettagli su eventuali vulnerabilità scoperte da NewsGuard.
  • Valutazione dell’accuratezza delle informazioni sul voto. Prima di ogni elezione importante, gli analisti di NewsGuard conducono test sui prodotti delle aziende di IA per determinare l’accuratezza con cui i loro sistemi rispondono a prompt relativi alla logistica, alle regole e ai meccanismi del voto, anche se questi argomenti non sono ancora stati oggetto di misinformazione diffusa. Questo servizio può identificare in modo tempestivo le aree in cui il sistema di IA potrebbe fuorviare gli elettori, danneggiando il processo democratico e creando un significativo rischio reputazionale per il fornitore del software, che potrebbe minare la fiducia degli utenti.

Protezione per modelli generativi di immagini, video, audio e testo

L’approccio ai dati e al red-teaming di NewsGuard può essere applicato a diversi modelli di IA generativa, tra cui strumenti generativi di immagini, video e audio, oltre a strumenti generativi di testo. Quando effettuano il red-teaming di uno strumento generativo di immagini, audio o video, gli analisti di NewsGuard applicano la loro conoscenza delle tattiche e delle motivazioni degli attori malintenzionati per testare la propensione di ciascun modello a produrre misinformazione o a creare deepfake convincenti in contesti in cui la posta in gioco è particolarmente alta, come elezioni e conflitti.

“Diversi prodotti di intelligenza artificiale sono suscettibili di vari tipi di manipolazione o possono causare danni anche se involontariamente”, ha dichiarato Gordon Crovitz, co-CEO di NewsGuard. “Ad esempio, un assistente virtuale basato sul testo può correre il rischio di fornire informazioni imprecise sulla logistica del voto, mentre uno strumento per la creazione di immagini può essere utilizzato per creare deepfake che ritraggono candidati politici impegnati in attività che non hanno mai avuto luogo. Abbiamo progettato questo pacchetto di servizi in modo che possano essere personalizzati e adattati per far fronte all’ampia gamma di rischi a cui sono sottoposte le aziende di IA per salvaguardare i loro prodotti in vista delle elezioni”.

Affrontare una sfida importante per i fornitori di IA

Poiché la tecnologia IA generativa è un settore nuovo e in rapida crescita, le aziende di IA hanno fatto fatica a proteggere i loro prodotti dalla misinformazione. Ad esempio, una ricerca di NewsGuard ha dimostrato che i prodotti di IA generativa come ChatGPT e Gemini di Google rispondono alle richieste su argomenti su cui è circolata misinformazione riproponendola dall’80 al 98% delle volte, a seconda del modello. Un recente rapporto del Center for Countering Digital Hate ha rilevato che i principali strumenti di IA per la produzione di immagini potrebbero essere indotti a creare immagini false di candidati politici o misinformazione relativa all’integrità del voto.

La propensione dei sistemi di IA a diffondere misinformazione – inavvertitamente o a causa di abusi da parte degli utenti – ha minato la fiducia degli utenti nei prodotti di IA. Uno studio di YouGov condotto per NewsGuard a novembre ha rilevato che la maggior parte degli americani pensa che l’IA possa diffondere misinformazione e solo il 10% ritiene improbabile che ciò accada. La misinformazione prodotta dai sistemi di IA ha anche portato a un aumento del controllo normativo del settore e a una copertura negativa da parte della stampa per diversi grandi fornitori di IA, rendendo la gestione di questi rischi una priorità assoluta per il settore.

“Sappiamo che le aziende che si occupano di IA si stanno concentrando sulla protezione dai rischi posti dalla misinformazione elettorale, con 22 importanti aziende che hanno recentemente firmato l’AI Elections Accord“, ha dichiarato Sarah Brandt, vicepresidente esecutiva per le Partnership a NewsGuard. “Ecco perché abbiamo messo a punto questo robusto pacchetto di strumenti per aiutarvi”.

“I nostri analisti sono i migliori del settore nel monitorare, segnalare e tracciare i rischi di misinformazione, compresi quelli derivanti da campagne sponsorizzate da Stati che prendono di mira le istituzioni democratiche di tutto il mondo”, ha dichiarato Steven Brill, Co-CEO di NewsGuard. “Questo nuovo pacchetto di prodotti mette a disposizione queste competenze in una modalità pensata appositamente per far fronte alle numerose sfide che le aziende di IA devono affrontare a causa dei rischi di misinformazione elettorale”.

Per saperne di più, richiedere campioni di dati o vedere un esempio di rapporto di red-teaming, contattate partnerships@newsguardtech.com.

 

Informazioni su NewsGuard

Fondato dall’imprenditore dei media e pluripremiato giornalista Steven Brill e dall’ex publisher del Wall Street Journal Gordon Crovitz, NewsGuard fornisce a lettori, brand e istituzioni democratiche strumenti trasparenti per contrastare la misinformazione. Dal lancio nel 2018, il suo staff internazionale di giornalisti ed esperti dell’ecosistema dell’informazione ha raccolto, aggiornato e distribuito più di 6,9 milioni di data point relativi a oltre 35.000 fonti di notizie e informazioni, per catalogare e tracciare tutte le principali narrazioni false che si diffondono online.

Gli analisti di NewsGuard gestiscono il più grande e affidabile set di dati sulle notizie. Questi dati vengono utilizzati per mettere a punto e fornire strategie di sicurezza ai modelli di intelligenza artificiale generativa, per consentire ai marchi di pubblicizzare su siti di notizie di qualità ed evitare siti di propaganda o di bufale, per offrire strumenti per l’alfabetizzazione ai media per i singoli utenti e per sostenere i governi democratici nel contrastare le operazioni di disinformazione che prendono di mira i loro cittadini.

I criteri apolitici e trasparenti di NewsGuard sono stati applicati dai suoi analisti per valutare le fonti di notizie che rappresentano il 95% del traffico online con le notizie in nove Paesi.