NewsGuard aiuta chi sviluppa modelli di intelligenza artificiale a evitare la diffusione di misinformazione

I temi di attualità rappresentano una grossa sfida per i modelli di intelligenza artificiale generativa, che finora hanno dimostrato di saper diffondere falsità a livelli mai visti prima. Le aziende che offrono prodotti di intelligenza artificiale generativa possono prendere in licenza i dati di NewsGuard, prodotti attraverso l’intelligenza umana, per perfezionare i propri modelli e creare sistemi di allerta post-elaborazione per riconoscere e sfatare narrative palesemente false e per trattare i contenuti dei siti di notizie affidabili in modo diverso da quelli dei siti di misinformazione.

Per far sì che l’intelligenza artificiale sia responsabile, occorrono il giudizio e la responsabilità dell’intelligenza umana, che NewsGuard è in grado di garantire con i suoi Reliability Ratings e Misinformation Fingerprints.

La prima generazione di modelli basati sull’IA generativa ha perso credibilità perché troppo spesso, su argomenti di attualità, fornisce risposte ben scritte, persuasive, ma false. L’uso di dati di addestramento responsabili può aiutare a prevenire la diffusione di teorie del complotto e altre informazioni false da parte dei modelli di IA. I dati di NewsGuard, interamente frutto del lavoro dei nostri analisti con formazione giornalistica, da oggi offrono agli sviluppatori di IA generativa strumenti chiave contro la misinformazione.

NewsGuard offre input sull’affidabilità delle fonti per ottimizzare i modelli di intelligenza artificiale generativa in modo che possano fornire risposte provenienti da fonti affidabili e mettere a punto sistemi di allerta post-elaborazione per impedire ai modelli di diffondere narrative false.

  • NewsGuard Ratings: accedete alle valutazioni di affidabilità di NewsGuard su tutte le principali fonti di notizie e informazioni online per perfezionare i modelli di intelligenza artificiale, addestrandoli a citare fonti di notizie attendibili, a trattare in modo diverso le fonti non attendibili e a visualizzare i punteggi di affidabilità accanto alle citazioni delle fonti di notizie e informazioni.
  • Misinformation Fingerprints™ di NewsGuard: accedete al catalogo costantemente aggiornato di NewsGuard di tutti i principali esempi di narrazioni false che si diffondono online, disponibili in formato leggibile sia dall’uomo che dalle macchine, per fornire ai modelli di intelligenza artificiale sistemi di allerta post-elaborazione che permettono loro di riconoscere e mitigare – non produrre e diffondere – narrazioni false.
Per saperne di più

Vuoi maggiori informazioni su NewsGuard? Compila questo modulo e verrai contattato dal nostro staff.

  • This field is for validation purposes and should be left unchanged.

“Microsoft Bing Chat è il primo modello di intelligenza artificiale generativa con una licenza per accedere ai dati di NewsGuard: ‘I risultati trasparenti e chiari di Bing [...] rappresentano un vero equilibrio tra trasparenza e autorevolezza, una sorta di compromesso tra il blocco totale delle fonti inaffidabili e l'assenza di qualsiasi moderazione'.”

Ben Smith

Semafor

“NewsGuard raccoglie dati sulle fonti di informazione più autorevoli e sulle principali narrazioni false che si diffondono online. I fornitori di servizi basati sull’intelligenza artificiale generativa possono quindi utilizzare questi dati per addestrare meglio i loro algoritmi a migliorare la qualità delle fonti di notizie citate ed evitare le narrazioni false.”

Ashley Gold & Sara Fischer

Axios

“Quando la versione con chat del motore di ricerca Bing di Microsoft è stata sottoposta allo stesso test, non solo ha presentato una valutazione più equilibrata, ma ha fornito citazioni, spesso includendo le valutazioni sull'affidabilità delle fonti fornite da NewsGuard, un sito dedicato alla valutazione dell'affidabilità della stragrande maggioranza dei siti di notizie del mondo in lingua inglese.”

Richard A. Lovett

Cosmos