A cura di Isis Blachez, Sofia Rubinson e Ines Chomnalez | Pubblicato l’11 maggio 2026
È noto come gli strumenti di rilevamento dell’IA talvolta identifichino erroneamente immagini generate dall’intelligenza artificiale come autentiche, ma un nuovo audit di NewsGuard sui principali modelli di rilevamento ha evidenziato quella che potrebbe essere una debolezza ancora più preoccupante: tre dei cinque strumenti testati vengono spesso ingannati da immagini reali. Secondo i risultati di NewsGuard, nel complesso gli strumenti hanno classificato immagini autentiche come generate dall’IA nel 13,33% dei casi. Uno strumento ha sbagliato nel 40% dei casi.
Questa vulnerabilità potrebbe avere conseguenze concrete importanti, perché offre ad attori malintenzionati l’opportunità di mettere in dubbio la realtà stessa, usando i risultati di uno strumento di rilevamento per sostenere che un’immagine autentica sia falsa. Inoltre, finisce per danneggiare chi pubblica contenuti reali.
Tra la fine di aprile e l’inizio di maggio 2026, NewsGuard ha testato 15 fotografie autentiche relative alla guerra tra Stati Uniti e Iran pubblicate da fonti credibili, sottoponendole a cinque tra i principali modelli di rilevamento dell’IA: Hive, AI or Not, ZeroGPT, Sightengine e ScamAI. Tutti e cinque gli strumenti si presentano come in grado di distinguere immagini generate dall’IA da immagini autentiche.
Tra i cinque modelli, ScamAI, che sul proprio sito si attribuisce un’“accuratezza leader del settore”, è stato quello che ha classificato erroneamente più immagini, presentando come generate dall’IA sei immagini autentiche su 15 (40%). ZeroGPT ha classificato tre delle 15 immagini reali (20%) come false, mentre AI or Not è stato ingannato una sola volta (6,67%). Hive e Sightengine hanno invece identificato correttamente tutte e 15 le immagini autentiche come reali.