Trotz technischer Fortschritte scheitern die Systeme an einer ihrer grundlegendsten Aufgaben: Fakten von Fiktion zu trennen. Die 10 führenden KI-Tools gaben im August 2025 in mehr als einem Drittel der Fälle — 35 Prozent — falsche Informationen zu aktuellen Nachrichtenthemen wieder, gegenüber 18 Prozent im August 2024. Die Versprechen der Branche, verlässlichere Systeme zu entwickeln, bleiben damit bislang unerfüllt.
Der Anstieg geht auf einen grundlegenden Kompromiss zurück: Seit die Chatbots verstärkt Echtzeit-Websuchen nutzen, geben sie kaum noch keine Antworten. Die Quote der Nicht-Antworten sank von 31 Prozent im August 2024 auf null Prozent im August 2025. Mit 35 Prozent hat sich ihre Wahrscheinlichkeit, falsche Informationen zu wiederholen, jedoch nahezu verdoppelt. Statt auf Wissensgrenzen zu verweisen oder heikle Fragen zu vermeiden, greifen die Systeme zunehmend auf ein durch Desinformation belastetes Online-Umfeld zurück – oft gespeist von staatlichen Akteuren wie russischen Propagandanetzwerken – und behandeln unzuverlässige Quellen als glaubwürdig.
Diese neue Auskunftsbereitschaft machen sich Desinformationsakteure gezielt zunutze: Sie speisen falsche Inhalte über unbedeutende Webseiten, Social-Media-Posts oder KI-generierte Content-Farmen ein – Quellen, die Chatbots nicht von seriösen Medien unterscheiden können. So hat der Druck, Chatbots aktueller und auskunftsfreudiger zu machen, unbeabsichtigt dazu geführt, dass sie anfälliger für Propaganda sind.
Von McKenzie Sadeghi