12/03/2026

NewsGuard startet Echtzeit-Datenstrom zur Erkennung von KI-Content-Farmen und reagiert damit auf die wachsende Flut KI-generierter Online-Inhalte im Nachrichtenbereich

Die führende KI-Erkennungstechnologie von Pangram Labs, kombiniert mit den Analysen von NewsGuard-Experten und exklusiven Datensätzen, identifiziert in Echtzeit mehr als 3.000 sogenannte KI-Content-Farmen und schützt so Leser und Werbetreibende vor der zunehmend wachsenden Flut minderwertiger KI-Inhalte.

New York – NewsGuard gab heute den Start seines neuen Datenstroms zur Erkennung von „AI Content Farms“ bekannt. Dabei handelt es sich um Webseiten, die massenhaft KI-generierte Inhalte veröffentlichen. Der Dienst hilft Verbrauchern, Plattformen und Werbetreibenden dabei, Webseiten zu identifizieren, die KI-generierte, häufig ungenaue Nachrichten- und Informationsinhalte massenhaft produzieren, um Werbeeinnahmen zu erzielen oder Propaganda zu verbreiten.

Das neue System, das in Zusammenarbeit mit Pangram Labs entwickelt wurde, baut auf NewsGuards branchenführender Recherche zu sogenannten KI-Content-Farmen auf. Durch die Kombination exklusiver NewsGuard-Daten mit der automatisierten KI-Erkennungssoftware von Pangram Labs identifiziert das System Nachrichten- und Informationswebseiten, bei denen ein erheblicher Teil der Inhalte offenbar von künstlicher Intelligenz generiert wurde. Anschließend überprüfen Analysten von NewsGuard die Ergebnisse, um sie zu bestätigen und mögliche Fehlklassifizierungen zu entfernen.

Mithilfe des Systems konnte NewsGuard bereits 3.006 Webseiten identifizieren, die als KI-Content-Farmen eingestuft werden – eine Zahl, die sich im vergangenen Jahr mehr als verdoppelt hat. Die Verbreitung dieser Seiten nimmt weiter zu und wächst derzeit um 300 bis 500 neue Websites pro Monat.

NewsGuard klassifiziert Webseiten als KI-Content-Farmen auf Grundlage von drei Kriterien:

  • Erheblicher Anteil an KI-generierten Inhalten: Ein wesentlicher Teil der Inhalte der Webseite wird laut einem von Pangram Labs bereitgestellten KI-Erkennungstool durch künstliche Intelligenz erstellt.
  • Keine Offenlegung des KI-Einsatzes: Die Webseite legt nicht klar offen, dass ihre Inhalte von KI generiert wurden. Zum Vergleich: Viele seriöse Nachrichtenorganisationen nutzen KI zur Unterstützung ihrer journalistischen Arbeit und legen diese Nutzung transparent und verantwortungsvoll offen.
  • Irreführende Darstellung: Die Webseite ist so gestaltet, dass durchschnittliche Leser davon ausgehen würden, die Inhalte seien von menschlichen Autoren oder Journalisten erstellt worden.

Diese Webseiten tragen häufig generische Namen wie „Times Business News“ oder „Business Post“ und veröffentlichen oft Dutzende Artikel pro Tag. Zudem sind sie häufig der Ursprung falscher Behauptungen über bekannte Marken, Themen der öffentlichen Gesundheit, politische Führungspersönlichkeiten oder Prominente.

So behauptete im Oktober 2025 eine KI-Content-Farm namens „News 24“ fälschlicherweise, Coca-Cola habe damit gedroht, sein Sponsoring des Super Bowls zu beenden, falls der puerto-ricanische Rapper Bad Bunny in der Halbzeitshow der NFL auftreten würde. Obwohl die Geschichte frei erfunden war – Coca-Cola ist kein Sponsor des Super Bowls –, enthielt der Artikel mehrere Werbeanzeigen von bekannten Marken, darunter Expedia, AT&T, YouTube, Priceline, Hotels.com, Skechers und GoDaddy.

Eine weitere KI-Content-Farm namens „CitizenWatchReport“ verbreitete die Falschbehauptung, zwei US-Senatoren hätten 814.000 US-Dollar für Hotels in der Ukraine ausgegeben. Diese Behauptung wurde anschließend von russischen Staatsmedien aufgegriffen. Danach verbreitete sie sich über große Social-Media-Konten in den Vereinigten Staaten.

„Mit dieser neuen Datenbank und Analysefähigkeit schützt NewsGuard Kunden aus verschiedenen Branchen davor, ausgenutzt zu werden, indem wir das Geschäftsmodell hinter KI-Content-Farmen durchbrechen. Diese missbrauchen Technologie- und Werbeplattformen, um Klicks und Werbeeinnahmen zu generieren oder Propaganda zu verbreiten“, sagte Dimitris Dimitriadis, Director of Research & Development bei NewsGuard.

„Offensichtlich verschwenden Leser und Werbekunden Zeit und Geld auf Webseiten, die haltlose Behauptungen über Prominente, Marken und Regierungsvertreter verbreiten. Diese Behauptungen werden anschließend über Online- und Social-Media-Kanäle verstärkt und verschmutzen das Informationsökosystem weiter“, sagte Matt Skibinski, Chief Operating Officer von NewsGuard. „Wir sehen und identifizieren inzwischen häufig Dutzende solcher Webseiten pro Tag und nehmen sie in unsere Datenbank auf, damit Werbetreibende nicht dazu verleitet werden, sie zu finanzieren.“

„Die heutige Flut KI-generierter Inhalte gefährdet das Internet, wie wir es kennen“, sagte Max Spero, Mitgründer und CEO von Pangram Labs. „Auch wenn wir diese Welle an KI-generierten Inhalten nicht vollständig verhindern können, sind wir stolz darauf, gemeinsam mit NewsGuard daran zu arbeiten, zu verhindern, dass böswillige Akteure KI-generierte Nachrichten nutzen, um unser Informationsumfeld zu verschmutzen.“

Schutz für Werbetreibende vor „Made-for-Advertising“-KI-Content-Farmen

NewsGuards neues System zur Erkennung von KI-Content-Farmen bietet auch einen wichtigen Schutz für Werbekunden, die sicherstellen möchten, dass ihre Anzeigen in sicheren und geeigneten Umfeldern erscheinen. Viele KI-Content-Farmen sind sogenannte „Made-for-Advertising“-Webseiten. Diese Seiten sind darauf ausgelegt, massenhaft minderwertige Inhalte zu produzieren und damit Einnahmen aus programmatischer Werbung zu generieren.

NewsGuard hatte zuvor berichtet, dass innerhalb eines Zeitraums von zwei Monaten bis zu 141 große Marken Anzeigen auf solchen Webseiten geschaltet hatten.

Werbetreibende können den neuen KI-Content-Farm-Datenstrom von NewsGuard nutzen, um ihre Anzeigenplatzierungen von diesen Websites weg und hin zu sichereren und geeigneteren Umfeldern zu steuern. Der Datenstrom ist in Pre-Bid-Segmente führender Werbeplattformen wie The Trade Desk integriert oder kann direkt von NewsGuard durch Marken oder deren Werbeagenturen lizenziert werden.

 

Erkennung böswilliger ausländischer Einflussoperationen in Echtzeit

Der Datenstrom erfasst auch Webseiten, die von feindlichen Akteuren betrieben werden, die mit Staaten wie Russland, China oder dem Iran in Verbindung stehen und deren Ziel die Verbreitung falscher oder irreführender Inhalte ist.

Dazu zählen beispielsweise 358 KI-Content-Farmen, die NewsGuard mit Storm-1516 in Verbindung gebracht hat – eine prorussische Einflussoperation, die falsche und irreführende Inhalte auf Webseiten verbreitet, die so gestaltet sind, dass sie lokalen Zeitungen in den Vereinigten Staaten und Europa ähneln.

„Mit unseren einzigartigen Echtzeitdaten können Verbraucher, Werbekunden und KI-Unternehmen sich vor den schädlichen Auswirkungen von KI-generierten Inhalten schützen – unabhängig davon, ob diese finanziell oder politisch motiviert sind“, so Dimitriadis.

Grafik via NewsGuard

Über NewsGuard

NewsGuard hilft Verbrauchern und Unternehmen dabei, online verlässliche Informationen zu finden – mithilfe transparenter und politisch unabhängiger Daten und Tools. NewsGuard wurde 2018 von Medienunternehmer und preisgekröntem Journalisten Steven Brill sowie vom ehemaligen Herausgeber des Wall Street Journal, Gordon Crovitz, gegründet.

Das internationale Team von Analysten für Informationszuverlässigkeit hat mehr als 7 Millionen Datenpunkte zu über 35.000 Nachrichten- und Informationsquellen gesammelt, aktualisiert und ausgewertet sowie die wichtigsten falschen Narrative, die sich online verbreiten, katalogisiert und analysiert.

Die kontinuierlich aktualisierten Echtzeit-Datensätze von NewsGuard können von Technologieunternehmen, Forschenden und anderen Organisationen lizenziert werden, die sich gegen ausländische Einflussoperationen schützen und die Integrität von Informationen sichern möchten.

Über Pangram Labs

Pangram Labs ist ein führender Anbieter von Technologien zur Erkennung KI-generierter Inhalte und übertrifft andere Anbieter bei Genauigkeit, Zuverlässigkeit und der Bereitstellung von Analyseinformationen. Die Erkennungssysteme von Pangram werden von Tausenden von Unternehmen eingesetzt – etwa zur Moderation KI-generierter Inhalte auf Social-Media-Plattformen oder zur Identifizierung von KI-generierten Fake-Bewertungen.

Das Unternehmen wurde von ehemaligen Kommilitonen an der Stanford University gegründet und gilt als besonders präzise Lösung zur Prüfung der Authentizität schriftlicher Inhalte.