Von Ines Chomnalez und Lea Marchl | Veröffentlicht am 22. Januar 2026
OpenAIs neues KI-Tool zur Videogenerierung, Sora, hat sich in kurzer Zeit den Ruf erworben, Menschen über die Echtheit seiner Videos zu täuschen. Wie sich nun zeigt, kann Sora selbst KI-Systeme in die Irre führen.
Ein Test von NewsGuard ergab, dass drei führende Chatbots in den meisten Fällen nicht in der Lage waren, von Sora generierte Videos zu erkennen, sofern diese nicht mit einem Wasserzeichen versehen waren. (Sora versieht alle mit dem Tool erstellten Videos mit einem Wasserzeichen, das sich jedoch leicht entfernen lässt; siehe unten.) Die drei getesteten Chatbots – xAIs Grok, OpenAIs ChatGPT und Googles Gemini – identifizierten Sora-Videos ohne Wasserzeichen in 95, 92,5 beziehungsweise 78 Prozent der Fälle nicht als KI-generiert, wenn sie entsprechend dazu befragt wurden.
Besonders auffällig ist die Fehlerrate von 92,5 Prozent bei ChatGPT, da dasselbe Unternehmen, OpenAI, sowohl ChatGPT als auch Sora entwickelt und besitzt. OpenAI reagierte nicht auf eine Anfrage von NewsGuard bezüglich ChatGPTs Unfähigkeit, die eigenen KI-generierten Videos des Unternehmens zu erkennen.
Auch bei Videos mit Wasserzeichen zeigten zwei der drei Chatbots Schwächen. Grok erkannte die wasserzeichenbehafteten Videos in 30 Prozent der Fälle nicht als KI-generiert, ChatGPT in 7,5 Prozent der Fälle, so NewsGuard. Nur Gemini bestand alle Tests ohne Fehler. (Mehr dazu weiter unten.)