A cura di Ines Chomnalez e Lea Marchl | Pubblicato il 23 gennaio 2026
Il nuovo strumento di OpenAI per generare video con l’IA, Sora, ha rapidamente acquisito la reputazione di riuscire a ingannare gli esseri umani facendo loro credere che i suoi video siano autentici. Ma a quanto pare, Sora riesce a ingannare anche l’intelligenza artificiale stessa.
Un test di NewsGuard ha rilevato che tre dei principali chatbot non riescono quasi mai a rilevare i video falsi generati da Sora, a meno che non contengano un watermark (Sora applica un watermark a tutti i video, ma questo può essere facilmente rimosso; vedi di seguito). I tre chatbot testati – Grok di xAI, ChatGPT di OpenAI e Gemini di Google – non hanno identificato i video Sora privi di watermark come generati dall’IA rispettivamente nel 95%, 92,5% e 78% dei casi.
Il tasso di errore del 92,5% di ChatGPT è particolarmente significativo, considerando che la stessa OpenAI possiede sia ChatGPT sia Sora.
Inoltre, anche in presenza dei watermark, due dei tre chatbot hanno talvolta commesso errori. Grok non ha riconosciuto tali video come generati dall’IA nel 30% dei casi, e ChatGPT nel 7,5%. Solo Gemini ha superato tutti i test effettuati mantenendo il watermark (maggiori dettagli sono disponibili in seguito).