NewsGuard per l’IA garantisce che le risposte dall’intelligenza artificiale siano:
Basate su fonti affidabili
Il nostro database costantemente aggiornato di Valutazioni di affidabilità fornisce dati raccolti dall’intelligenza umana che valutano l’accuratezza e l’affidabilità di oltre 35.000 fonti di notizie e informazioni, utilizzando criteri giornalistici oggettivi e apolitici. Grazie a questi dati, le aziende di IA possono garantire che gli output generati si basino su contenuti di alta qualità, sia durante la fase di addestramento dei modelli che nei processi RAG (Retrieval-Augmented Generation), evitando così di citare fonti inaffidabili nelle risposte.
Protette contro le affermazioni false
Il database delle Identità Digitali delle Notizie False, o False Claim Fingerprints, di NewsGuard protegge i prodotti di intelligenza artificiale dalle affermazioni false che circolano online e che possono infiltrarsi nelle risposte attraverso dati di addestramento di bassa qualità o processi RAG che attingono dal web. Aggiornato costantemente, questo database contiene dati e informazioni dettagliate su ogni affermazione false – dove si è diffusa e in che forma, come viene espressa in testi, immagini, video e contenuti audio su varie piattaforme – offrendo una protezione completa e multilivello.
Testate su temi di attualità ad alto rischio
I nostri analisti esperti di affidabilità dell’informazione hanno competenze specifiche su affermazioni false, teorie del complotto e operazioni di disinformazione che possono compromettere la qualità delle risposte generate dall’IA. Le attività di red-teaming su affermazioni false possono identificare i punti deboli e le vulnerabilità nelle protezioni esistenti e valutare le prestazioni dell’IA su argomenti di attualità, confrontandole con gli standard del settore.
Protette dalle minacce emergenti
Con notifiche in tempo reale e briefing sui rischi, i nostri analisti avvertono le aziende di IA riguardo a minacce emergenti – comprese le operazioni di influenza da parte di regimi autoritari che mirano a manipolare le risposte IA con affermazioni false e contenuti propagandistici.