Von Isis Blachez, Sofia Rubinson und Ines Chomnalez | Veröffentlicht am 11. Mai 2026
KI-Erkennungstools sind dafür bekannt, gelegentlich KI-generierte Bilder fälschlicherweise als echt einzustufen. Eine neue Untersuchung von NewsGuard über führende KI-Erkennungstools hat jedoch eine möglicherweise noch gravierendere Schwäche aufgedeckt: Drei der fünf getesteten Tools ließen sich häufig von echten Bildern täuschen. Laut den Ergebnissen von NewsGuard stuften die Tools zusammengenommen authentische Bilder in 13,33 Prozent der Fälle fälschlicherweise als KI-generiert ein, und eines der Tools lag in 40 Prozent der Fälle falsch.
Diese Anfälligkeit hat potenziell erhebliche reale Konsequenzen, da sie Akteuren mit manipulativen Absichten ermöglicht, die Realität infrage zu stellen, indem sie sich auf ein Erkennungstool berufen, um zu behaupten, ein bestimmtes Bild sei gefälscht. Gleichzeitig führt dies dazu, dass Personen, die echte Bilder veröffentlichen, zu Unrecht beschuldigt werden.
Ende April und Anfang Mai 2026 testete NewsGuard 15 authentische Fotos im Zusammenhang mit dem US-Iran-Krieg, die von glaubwürdigen Medien veröffentlicht wurden, und ließ sie von den fünf führenden KI-Detektoren analysieren: Hive, AI or Not, ZeroGPT, Sightengine und ScamAI. Alle fünf Anbieter werben damit, KI-generierte Bilder von authentischen unterscheiden zu können.
Von den fünf Modellen stufte ScamAI – das auf seiner Website mit „branchenführender Genauigkeit“ wirbt – die meisten Bilder falsch ein: Sechs von 15 (40 Prozent) der echten Fotos wurden als KI-generiert eingestuft. ZeroGPT stufte drei der 15 echten Bilder (20 Prozent) als gefälscht ein, und AI or Not lag einmal falsch (6,67 Prozent). Hive und Sightengine erkannten alle 15 authentischen Bilder korrekt als echt.