Image via Canva

Schwächen bei KI-Erkennungstools: Echte Inhalte werden häufig fälschlich als KI-generiert eingestuft

Von Isis Blachez, Sofia Rubinson und Ines Chomnalez | Veröffentlicht am 11. Mai 2026

 

KI-Erkennungstools sind dafür bekannt, gelegentlich KI-generierte Bilder fälschlicherweise als echt einzustufen. Eine neue Untersuchung von NewsGuard über führende KI-Erkennungstools hat jedoch eine möglicherweise noch gravierendere Schwäche aufgedeckt: Drei der fünf getesteten Tools ließen sich häufig von echten Bildern täuschen. Laut den Ergebnissen von NewsGuard stuften die Tools zusammengenommen authentische Bilder in 13,33 Prozent der Fälle fälschlicherweise als KI-generiert ein, und eines der Tools lag in 40 Prozent der Fälle falsch.

Diese Anfälligkeit hat potenziell erhebliche reale Konsequenzen, da sie Akteuren mit manipulativen Absichten ermöglicht, die Realität infrage zu stellen, indem sie sich auf ein Erkennungstool berufen, um zu behaupten, ein bestimmtes Bild sei gefälscht. Gleichzeitig führt dies dazu, dass Personen, die echte Bilder veröffentlichen, zu Unrecht beschuldigt werden.

Ende April und Anfang Mai 2026 testete NewsGuard 15 authentische Fotos im Zusammenhang mit dem US-Iran-Krieg, die von glaubwürdigen Medien veröffentlicht wurden, und ließ sie von den fünf führenden KI-Detektoren analysieren: Hive, AI or Not, ZeroGPT, Sightengine und ScamAI. Alle fünf Anbieter werben damit, KI-generierte Bilder von authentischen unterscheiden zu können.

Von den fünf Modellen stufte ScamAI – das auf seiner Website mit „branchenführender Genauigkeit“ wirbt – die meisten Bilder falsch ein: Sechs von 15 (40 Prozent) der echten Fotos wurden als KI-generiert eingestuft. ZeroGPT stufte drei der 15 echten Bilder (20 Prozent) als gefälscht ein, und AI or Not lag einmal falsch (6,67 Prozent). Hive und Sightengine erkannten alle 15 authentischen Bilder korrekt als echt.

Prozentsatz echter Bilder, die von KI-Erkennungstools als KI-generiert eingestuft wurden.

ScamAI-Mitgründer Dennis Ng räumte in einem Videointerview mit NewsGuard am 6. Mai 2026 ein, dass Fehleinschätzungen vorkommen können. Ein Grund sei, dass Erkennungstools in der Regel hochauflösende Bilder mit vielen Pixeln benötigen, um echte Bilder korrekt zu identifizieren. „Wir können unsere Modelle gezielt anpassen und weiterentwickeln, um solche Fälle zu reduzieren“, sagte Ng. (Die Website von ScamAI erklärt: „Die Genauigkeit variiert je nach Medientyp und Manipulationstechnik“ und ergänzt, dass das Modell im Allgemeinen eine „Erkennungsgenauigkeit von 95,3 %“ erreicht.)

ZeroGPT-CEO Rawad Baroud erklärte NewsGuard am 6. Mai 2026 per E-Mail, dass Bildbearbeitungen wie Größenänderungen oder Komprimierung dazu führen können, dass echte Bilder fälschlicherweise als KI-generiert gekennzeichnet werden. Außerdem könnten Bilder mit Merkmalen, die generierten Bildern ähneln – etwa ungewöhnliche Beleuchtung, hoher Kontrast oder Unschärfe – zu fehlerhaften Ergebnissen führen. „Nachrichtenbilder aus Konfliktgebieten weisen oft mehrere dieser Eigenschaften auf“, sagte er.

Während ZeroGPT keine Angaben zur Genauigkeit seines Bilderkennungstools macht, erklärt das Unternehmen auf seiner Website, dass das Tool genutzt werden sollte, „um fundierte Entscheidungen über die Authentizität eines Bildes zu treffen“.

AI or Not CEO Anatoly Kvitnitsky teilte NewsGuard in einer E-Mail vom 7. Mai 2026 mit, dass „im Falle einer Fehleinschätzung eine geringe Bildqualität manchmal das Ergebnis beeinflussen kann“. Auf seiner Website gibt AI or Not an, eine „KI-Erkennungsgenauigkeit von 98,9 %“ zu erreichen, basierend auf „der Auswertung eines aktuellen öffentlichen akademischen Datensatzes mit echten und KI-generierten Bildern durch AI or Not“.

Bilder des Iran-Kriegs bringen KI-Erkennungstools an ihre Grenzen

Wie NewsGuard feststellte, hat der Iran-Krieg 2026 zu einer Flut verdächtiger Bilder in sozialen Medien geführt – von fabrizierten Szenen von Raketenschlägen und zerstörten Städten bis hin zu inszenierten Todesopfern. All diese Inhalte zielten darauf ab, die öffentliche Wahrnehmung zu manipulieren.

Akteure mit böswilligen Absichten haben außerdem KI-Erkennungstools instrumentalisiert, um Zweifel an authentischem Bildmaterial zu säen und legitime Berichterstattung zu diskreditieren. Ein prominentes Beispiel dafür war ein authentisches „Lebenszeichen“-Video des israelischen Premierministers Benjamin Netanyahu in einem Café, das er online gepostet hatte, um falschen Behauptungen entgegenzuwirken, wonach er bei einem iranischen Raketenangriff getötet oder schwer verletzt worden sei.

Ein Nutzer auf X verweist auf ein Ergebnis des KI-Erkennungstools Hive (rechts), um fälschlicherweise zu behaupten, ein Video von Netanyahu (links) beim Kaffeetrinken sei KI-generiert. (Screenshot via NewsGuard)

Daraufhin luden Nutzer den Clip zusammen mit einem Hive-Ergebnis hoch, laut dem das Video mit einer Wahrscheinlichkeit von 96,9 Prozent„wahrscheinlich KI-generiert“ sei. Anti-israelische und pro-iranische Social-Media-Nutzer behaupteten, das Hive-Ergebnis beweise, dass Netanyahu tatsächlich getötet worden sei. Vergleiche des Café-Videos mit anderen Bildern und Videos, die am selben Ort aufgenommen wurden, bestätigten jedoch dessen Echtheit. Offenbar wurde lediglich ein Filter oder eine leichte Bearbeitung angewendet, die den Hintergrund leicht verschwimmen ließ – was Hive offenbar dazu veranlasste, das Video als KI-generiert einzustufen. Hive reagierte nicht auf zwei Anfragen von NewsGuard, in denen um eine Stellungnahme gebeten wurde.

Unerkannte Manipulation

NewsGuard unterzog die Modelle außerdem Belastungstests, um festzustellen, ob sie Bilder, die lediglich kosmetisch leicht mit KI verändert wurden, als KI-generiert oder echt einstufen. Zudem wurde geprüft, wie die Tools mit Bildern umgehen, deren Bedeutung durch KI grundlegend verändert wurde. In der ersten Kategorie war ScamAI am ehesten dazu geneigt, leicht bearbeitete Bilder als KI-generiert zu klassifizieren. In der zweiten Kategorie war Sightengine das Tool, das die stark veränderten Bilder am häufigsten weiterhin als echt einstufte.

Auf Nachfrage erklärte ScamAI-Mitgründer Ng gegenüber NewsGuard: „Wenn unser KI-Modell erkennt, dass bei einem echten Bild irgendeine Art von [KI-]Filter verwendet wurde, stufen wir es dennoch als KI-manipuliertes Bild ein.“ Kleinere Verbesserungen hinterließen ebenso wie umfangreichere KI-Bearbeitungen „Spuren von KI-Editing“, erklärte er.

Sightengine-Gründer David Lissmyr erklärte gegenüber NewsGuard, dass das Basismodell seines Unternehmens „dafür entwickelt wurde, vollständig KI-generierte oder stark bearbeitete Bilder zu kennzeichnen“. Darüber hinaus verfüge das Unternehmen über fortschrittlichere Modelle, die auch leichtere Bearbeitungen erkennen könnten. Sightengine wirbt auf seiner Website mit der „höchsten Genauigkeit bei der Erkennung KI-generierter Medien“ und verweist dabei auf eine Studie der University of Rochester und der University of Kansas.

Zwei authentische Bilder im Zusammenhang mit dem Iran-Krieg, die von NewsGuard bearbeitet wurden, um die Bedeutung der Bilder grundlegend zu verändern.

Wie bereits erwähnt, waren Hive und Sightengine die einzigen beiden Tools, die keine authentischen Bilder falsch eingestuft haben. Gleichzeitig schnitten diese beiden Tools am schlechtesten ab, wenn es darum ging, erheblich manipulierte Bilder zu erkennen, und erklärten sie für authentisch. Sightengine erkannte lediglich fünf von 15 stark veränderten Bildern korrekt — eine Erkennungsrate von 33 Prozent. Hive identifizierte neun dieser stark bearbeiteten Bilder als gefälscht, was einer Erkennungsrate von 73,33 Prozent entspricht. ScamAI erkannte 12 der Bilder korrekt (80 Prozent), ZeroGPT lag bei 14 Bildern richtig (93,33 Prozent), und AI or Not erzielte ein perfektes Ergebnis von 100 Prozent.

Hive reagierte nicht auf zwei Anfragen von NewsGuard. Auf seiner Website behauptet das Unternehmen, dass „eine unabhängige Forschungsstudie aus dem Jahr 2024 ergeben habe, dass unser Modell zur Erkennung KI-generierter Inhalte konkurrierende Modelle sowie die Analyse menschlicher Experten übertrifft.“

Bei der Bewertung leicht bearbeiteter Bilder kennzeichnete ScamAI 93 Prozent dieser Bilder als KI-generiert, gefolgt von AI or Not mit 87 Prozent und ZeroGPT mit 80 Prozent. Bei Hive und Sightengine war die Wahrscheinlichkeit geringer, dass die leichten Bearbeitungen die Tools täuschten – sie stuften lediglich 27 Prozent der Bilder als KI-generiert ein.

Die Unterschiede in den Ergebnissen – von 27 bis 93 Prozent für denselben Bildsatz – deuten darauf hin, dass die Tools unterschiedliche Schwellenwerte dafür haben, was als KI-Manipulation gilt. Wenn Erkennungstools Bilder mit geringfügigen Nachbearbeitungen als vollständig KI-generiert kennzeichnen, riskieren sie, Verbrauchern eine falsche Grundlage zu liefern, wodurch echte Bildaufnahmen in Frage gestellt werden.

Mehrere Tools, widersprüchliche Ergebnisse

Die fünf Tools kamen nur selten zum selben Ergebnis – bei 35 der 45 getesteten Bilder wich mindestens eine Einschätzung eines Tools von den übrigen ab. Nutzer, die mehrere Tools zur Überprüfung heranziehen, dürften daher am Ende eher verunsichert sein und nicht wissen, welchem Ergebnis sie glauben sollen.

Wie KI-Erkennungstools die authentische und die stark bearbeitete Version eines Bildes klassifizierten, das israelische Soldaten neben einer iranischen Rakete im israelisch besetzten Westjordanland zeigt.

Beispielsweise testete NewsGuard ein Foto einer iranischen Rakete, das mithilfe von KI mit der Aufschrift „No Kings“ versehen worden war. Drei der fünf Tools stuften das Bild als KI-generiert ein, während zwei es als echt bezeichneten. (Wie bereits berichtet, stellte NewsGuard fest, dass pro-iranische Accounts mit einem anderen KI-manipulierten Bild einer iranischen Rakete mit der Aufschrift „No Kings“ — eine Anspielung auf Anti-Trump-Proteste — Millionen Aufrufe erzielten.)

Wie KI-Erkennungstools die authentische und die stark bearbeitete Version eines Bildes klassifizierten, das die Verteilung von Hilfsgütern im Libanon zeigt.

Die unterschiedlichen Bewertungen derselben Bilder durch diese Tools weisen auf ein grundlegendes Problem hin: Es gibt keinen branchenweiten Konsens darüber, was genau als KI-generierter Inhalt gilt, und die Erkennungstools selbst legen nicht offen, ab welchem Grad der Manipulation ein Bild als KI-generiert eingestuft wird. Angesichts der fehlenden Transparenz darüber, wie KI-Erkennungstools funktionieren, können Nutzer die Ergebnisse leicht falsch interpretieren.

Die Ergebnisse von NewsGuard legen nahe, dass menschliche Überprüfung ein wichtiger Bestandteil bei der Einordnung von Bildern als authentisch oder KI-generiert sein könnte. Hinweise wie visuelle Auffälligkeiten, inhaltliche Widersprüche und die Herkunft eines Bildes – Faktoren, die den Tools entgehen können – sind bei der Beurteilung der Authentizität ebenso wichtig wie die Ergebnisse von KI-Erkennungstools.

Tatsächlich erklärte ZeroGPT-CEO Rawad Baroud, dass die Ergebnisse seines Modells Teil eines größeren Verifizierungsprozesses sein sollten. „Wir empfehlen Journalisten, Forschern und Faktenprüfern, Ergebnisse von KI-Erkennungstools mit Quellenprüfung, Reverse-Image-Search, Metadatenanalyse, Veröffentlichungshistorie und kontextbezogener Berichterstattung zu kombinieren, bevor sie zu einem Schluss kommen“, sagte Baroud.

Methodik

NewsGuard wählte 15 Bilder zum Iran-Krieg aus glaubwürdigen Quellen aus, darunter die Nachrichtenagenturen Reuters und Associated Press, die Tageszeitungen The New York Times und The Guardian sowie Satellitenbilder von Google Earth.

Jedes Bild wurde auf zwei Arten bearbeitet:

  • Leicht bearbeitet: NewsGuard übermittelte das Bild an ein KI-Tool mit der Anweisung:
    „Verbessere die Beleuchtung dieses Bildes und verwische unnötige Elemente im Hintergrund.“
  • Stark bearbeitet: NewsGuard übermittelte das Bild an ein KI-Tool mit der Aufforderung, es so zu bearbeiten, dass die Bedeutung des Inhalts geändert wurde, inspiriert von falschen Behauptungen, die während des Iran-Krieges online kursierten. Zu den Anweisungen gehörten unter anderem: „Bearbeite dieses Bild so, dass eine Rakete das Schiff trifft und es realistisch zu sinken beginnt”; „Füge aufsteigenden Rauch hinzu, als ob die Atomanlage zerstört wurde”; „Ändere die Flaggen, damit es aussieht, als wäre dieses Bild in Israel aufgenommen worden”; und „Bearbeite die Beschriftung und die Flagge auf diesem Flugzeug so, dass es aussieht, als werde es vom Iran betrieben.“

Von den 15 Bildern wurden fünf mit OpenAIs ChatGPT, fünf mit Googles Gemini und fünf mit xAIs Grok bearbeitet. Mit Gemini bearbeitete Bilder wurden zugeschnitten, um das Wasserzeichen zu entfernen.

NewsGuard übermittelte die 45 Bilder — 15 echte, 15 leicht bearbeitete und 15 stark bearbeitete — an die KI-Erkennungstools Hive, AI or Not, ZeroGPT, Sightengine und ScamAI und verwendete jeweils das kostenlose oder günstigste verfügbare Modell.

Bilder, bei denen ein Modell eine Wahrscheinlichkeit von mindestens 50 Prozent für KI-Generierung feststellte, wurden als KI-generiert klassifiziert. Bilder mit einer Wahrscheinlichkeit von 49 Prozent oder weniger wurden als authentisch eingestuft.

Redaktion: Dina Contini und Eric Effron