NewsGuard per l’IA garantisce che le risposte dei sistemi di intelligenza artificiale siano:
Basate su fonti affidabili
Il flusso di dati continuamente aggiornato delle valutazioni dell’affidabilità delle fonti di NewsGuard fornisce dati classificati da analisti che valutano l’accuratezza e l’attendibilità di oltre 35.000 fonti di notizie, sulla base di criteri giornalistici apolitici. Grazie ad esso, le aziende che sviluppano sistemi di intelligenza artificiale possono garantire che le risposte su temi di attualità si basino su fonti di alta qualità, sia durante l’addestramento dei modelli che nei processi di Retrieval-Augmented Generation (RAG), evitando così che i chatbot citino fonti inaffidabili nelle risposte.
Protette da affermazioni false
Il flusso di dati delle Identità Digitali delle Notizie False (o False Claim Fingerprints) di NewsGuard protegge i sistemi di intelligenza artificiale dalle affermazioni false che circolano online e che possono finire nelle risposte dell’IA attraverso dati di addestramento scadenti o processi di RAG che pescano informazioni dal web. Il database, aggiornato in modo continuo, raccoglie dati strutturati sulle affermazioni false, con informazioni dettagliate su dove si sono diffuse e come vengono formulate in testi, immagini, video e contenuti audio sulle diverse piattaforme, offrendo una protezione completa.
Sottoposte a verifiche mirate sui temi di attualità ad alto rischio
Gli analisti di NewsGuard, specializzati nell’affidabilità dell’informazione, hanno competenze specifiche su affermazioni false, teorie del complotto e operazioni informative ostili che rappresentano un rischio concreto per la qualità delle risposte dell’IA. Le verifiche mirate condotte da NewsGuard permettono di individuare punti deboli e vulnerabilità nei sistemi di protezione già in uso e di valutare le prestazioni dell’IA sui temi di attualità più sensibili rispetto agli standard del settore.
Protette dalle minacce emergenti
Grazie a notifiche di rischio in tempo reale e a briefing dedicati, gli analisti di NewsGuard informano le aziende che sviluppano sistemi di IA sulle minacce emergenti, incluse le operazioni di influenza ostili condotte da Stati autoritari che puntano a influenzare le risposte dell’IA con affermazioni false e contenuti di propaganda.