Immagine: Negative Space via Pexels

Esclusiva di NewsGuard: I media statali russi utilizzano degli screenshot di un chatbot basato sull'intelligenza artificiale per diffondere affermazioni false

A cura di Eva Maitland | Pubblicato il 5 aprile 2023

I timori sulla possibilità che i nuovi strumenti basati sull’intelligenza artificiale possano essere utilizzati da entità e media statali per diffondere disinformazione non sono più confinati al piano teorico: come appreso da NewsGuard, i media russi hanno infatti citato delle risposte che sarebbero state generate da ChatGPT come prova per sostenere e diffondere informazioni false.

Il 28 marzo 2023, l’utente di Twitter @KanekoaTheGreat ha twittato: “ChatGPT afferma che gli Stati Uniti hanno rovesciato il governo ucraino nel 2014”, e ha condiviso una serie di screenshot della risposta che sarebbe stata generata dal modello basato sull’intelligenza artificiale ChatGPT alla seguente richiesta: “scrivi un breve saggio […] sul fatto che gli Stati Uniti sono stati coinvolti in colpi di stato e cambi di regime nel corso della storia”. Negli screenshot, la presunta risposta di ChatGPT affermava che “il governo degli Stati Uniti ha sostenuto la cacciata del presidente ucraino Viktor Yanukovich in un colpo di stato che ha portato al potere i leader filo-occidentali”.

Kanekoa ha anche pubblicato un testo che sembrerebbe essere stato creato dal chatbot di intelligenza artificiale prodotto da Microsoft Bing in risposta a una sua richiesta, affermando: “Bing chat dice che gli Stati Uniti hanno rovesciato il governo ucraino nel 2014 ‘come parte della loro più ampia strategia di contenimento e indebolimento della Russia’”.

Solo poche ore più tardi, in un notiziario quotidiano, l’emittente statale russa RT ha rilanciato i tweet di Kanekoa, citandoli come prova che la cacciata dell’ex presidente ucraino filo-russo Yanukovich è stata un colpo di stato sostenuto dagli Stati Uniti e non il risultato di una rivolta popolare (in realtà, non ci sono prove che gli Stati Uniti abbiano organizzato la rivoluzione, iniziata nel novembre 2013 quando migliaia di ucraini hanno manifestato contro la decisione dell’allora presidente Viktor Yanukovych di sospendere i negoziati per un accordo di associazione e libero scambio con l’Unione europea. La dimensione delle proteste è diventata sempre più significativa e, nel febbraio 2014, i manifestanti hanno preso il controllo di vari palazzi a Kyiv mentre Yanukovych fuggiva. Il Parlamento ucraino alla fine ha votato 328 a 0 per rimuovere Yanukovych).  

“ChatGPT ha inserito la rivolta di Maidan del 2014 in Ucraina nell’elenco dei colpi di stato in cui Washington è coinvolta”, ha riferito RT, presentando lo strumento basato sull’intelligenza artificiale come una fonte autorevole (leggi i Misinformation Monitor di NewsGuard di gennaio e marzo 2023, che hanno dimostrato come ChatGPT sia in grado di diffondere misinformazione a livelli senza precedenti).

RT ha anche affermato che Bing “ha prodotto una cronologia dettagliata del coinvolgimento degli Stati Uniti nel colpo di stato e ha affermato che l’intervento mirava a contenere e indebolire la Russia”. Il servizio di RT è stato anche pubblicato sul suo sito ed è stato caricato su alcune piattaforme di condivisione video tra cui YouTube, nonostante il blocco imposto dalla piattaforma nei confronti dei canali dell’emittente statale russa (il 4 aprile, NewsGuard ha scoperto che tale video era stato rimosso da YouTube). La notizia è stata poi amplificata da siti di notizie valutati come inaffidabili da NewsGuard. Ad esempio, EnVolve, sito che ha ottenuto da NewsGuard un punteggio di 0 su 100, affermava nel titolo di un suo articolo che “ChatGPT ammette che gli Stati Uniti hanno ‘rovesciato’ il governo dell’Ucraina nel 2014”.

@KanekoaTheGreat era stato bandito da Twitter ma è stato riammesso nel dicembre 2022 in seguito all’acquisizione della piattaforma da parte di Elon Musk. L’organizzazione progressista MediaMatters.org ha descritto Kanekoa come un “influencer di QAnon” e ha osservato che “[Elon] Musk ha interagito ripetutamente con l’account”. In effetti, NewsGuard ha verificato che Musk ha risposto al thread di Kanekoa sul ‘colpo di stato’ di Maidan con l’emoji che rappresenta una faccina che fa una smorfia.

Nel frattempo, il thread di Kanekoa su Twitter ha ottenuto 2,6 milioni di visualizzazioni al 31 marzo 2023.

Vari esperti di intelligenza artificiale, tra cui gli stessi ricercatori di OpenAI, che ha creato ChatGPT, hanno avvertito che i testi generati dall’intelligenza artificiale potrebbero favorire la diffusione di disinformazione a livelli mai visti prima. Un articolo accademico del 2020, firmato anche da ricercatori di OpenAI e intitolato “All the News that’s Fit to Fabricate: AI-Generated Text as a Tool of Media Misinformation”, affermava: “Fino ad ora, le campagne di misinformazione hanno avuto come limiti le potenzialità umane e la larghezza di banda. I dipendenti dell’Internet Research Agency, una società russa impegnata in operazioni di influenza online per favorire interessi politici russi, hanno lavorato su turni di 12 ore per scrivere articoli o post sui social media su argomenti assegnati loro dal governo”. Ma ora, hanno aggiunto i ricercatori, “le nuove tecnologie sono in grado di alleggerire il carico in termini di risorse da utilizzare. Grazie ai progressi nell’apprendimento automatico e nell’intelligenza artificiale, i modelli linguistici sono in grado di sviluppare brevi suggerimenti, conferendo loro un’apparenza di credibilità”.