NewsGuard per l’IA

Un’intelligenza artificiale affidabile richiede dati affidabili

Senza fonti di qualità e rigorose misure di protezione, i prodotti di intelligenza artificiale ripetono affermazioni false o forniscono informazioni inesatte fino al 40% delle volte (o più), soprattutto su argomenti di attualità.

NewsGuard fornisce alle aziende di intelligenza artificiale dati affidabili e verificati da esperti, aggiornati su larga scala, utili per garantire la qualità delle fonti e proteggere da nuove informazioni false che emergono nel tempo.

Scopri di più

Vuoi maggiori informazioni su NewsGuard? Compila questo modulo e verrai contattato dal nostro staff.

  • This field is for validation purposes and should be left unchanged.

NewsGuard per l’IA garantisce che le risposte dall’intelligenza artificiale siano:

Basate su fonti affidabili

Il nostro database costantemente aggiornato di Valutazioni di affidabilità fornisce dati raccolti dall’intelligenza umana che valutano l’accuratezza e l’affidabilità di oltre 35.000 fonti di notizie e informazioni, utilizzando criteri giornalistici oggettivi e apolitici. Grazie a questi dati, le aziende di IA possono garantire che gli output generati si basino su contenuti di alta qualità, sia durante la fase di addestramento dei modelli che nei processi RAG (Retrieval-Augmented Generation), evitando così di citare fonti inaffidabili nelle risposte.

Protette contro le affermazioni false

Il database delle Identità Digitali delle Notizie False, o False Claim Fingerprints, di NewsGuard protegge i prodotti di intelligenza artificiale dalle affermazioni false che circolano online e che possono infiltrarsi nelle risposte attraverso dati di addestramento di bassa qualità o processi RAG che attingono dal web. Aggiornato costantemente, questo database contiene dati e informazioni dettagliate su ogni affermazione false – dove si è diffusa e in che forma, come viene espressa in testi, immagini, video e contenuti audio su varie piattaforme – offrendo una protezione completa e multilivello.

Testate su temi di attualità ad alto rischio

I nostri analisti esperti di affidabilità dell’informazione hanno competenze specifiche su affermazioni false, teorie del complotto e operazioni di disinformazione che possono compromettere la qualità delle risposte generate dall’IA. Le attività di red-teaming su affermazioni false possono identificare i punti deboli e le vulnerabilità nelle protezioni esistenti e valutare le prestazioni dell’IA su argomenti di attualità, confrontandole con gli standard del settore.

Protette dalle minacce emergenti

Con notifiche in tempo reale e briefing sui rischi, i nostri analisti avvertono le aziende di IA riguardo a minacce emergenti – comprese le operazioni di influenza da parte di regimi autoritari che mirano a manipolare le risposte IA con affermazioni false e contenuti propagandistici.

Integrazioni rapide e semplici tramite API o flusso dati cloud