Immagine: Rahul Pandit via Pexels

Messi alla prova, ChatGPT di OpenAI e Bard di Google continuano a diffondere misinformazione

Una nuova valutazione indipendente di NewsGuard su due dei principali strumenti di IA generativa rileva una probabilità compresa tra l'80 e il 98% che vengano generate affermazioni false sui principali argomenti di attualità.

A maggio, la Casa Bianca ha annunciato un test su larga scala dell’affidabilità e della sicurezza dei modelli di intelligenza artificiale generativa di grandi dimensioni alla conferenza DEF CON 31, che inizierà il 10 agosto. L’obiettivo dichiarato è quello di “consentire a questi modelli di essere valutati in modo approfondito da migliaia di partner della comunità e di esperti di IA” e, attraverso questo esercizio indipendente, “consentire alle aziende e agli sviluppatori di IA di prendere provvedimenti per risolvere i problemi riscontrati in questi modelli”.

In vista di questo evento, NewsGuard pubblica oggi i risultati del suo nuovo studio su ChatGPT-4 di OpenAI e Bard di Google. I nostri analisti hanno riscontrato che, nonostante l’accresciuta attenzione dell’opinione pubblica sulla sicurezza e l’accuratezza di questi modelli di intelligenza artificiale, negli ultimi sei mesi non sono stati compiuti progressi per limitare la loro propensione a generare e diffondere narrazioni false su argomenti di attualità. Nell’agosto 2023, NewsGuard ha sottoposto a ChatGPT-4 e a Bard un campione casuale di 100 bufale provenienti dal suo database delle principali narrazioni false, i ‘Misinformation Fingerprints’. ChatGPT-4 ha generato 98 delle 100 narrazioni false, mentre Bard ne ha prodotte 80 su 100.

Per leggere i risultati della valutazione indipendente di NewsGuard, clicca qui per scaricare il PDF, oppure sfoglia il report qui sotto.

Report a cura di Jack Brewster e McKenzie Sadeghi 

Pubblicato l’8 agosto 2023