Bildquelle: Alina Grubnyak via Unsplash

Tracking-Center für Künstliche Intelligenz: 583 unzuverlässige KI-generierte Nachrichtenseiten (laufend ergänzt), plus die populärsten KI-generierten Falschnachrichten

NewsGuard hat bisher 583 KI-generierte Nachrichten- und Informationsseiten identifiziert, die ohne oder mit nur geringer menschlicher Einflussnahme betrieben werden. Darüber hinaus verfolgt NewsGuard Falschmeldungen, die von Tools, die auf künstlicher Intelligenz basieren, verbreitet werden.

McKenzie Sadeghi, Lorenzo Arvanitis, Virginia Padovese, Giulia Pozzi, Sara Badilini, Chiara Vercellone, Madeline Roache, Macrina WangJack Brewster, Natalie Huet, Andie Slomka, Leonie Pfaller und Louise Vallee   | Zuletzt aktualisiert: 4. Dezember 2023

Von Falschnachrichten, die sich wie von selbst und ohne menschliche Kontrolle produzieren lassen, bis hin zu gefälschten Bildern von KI-Bildgeneratoren ⁠— die Einführung von generativen Tools der künstlichen Intelligenz ist ein Gewinn für Content-Farmen und Falschinformationsverbreiter gleichermaßen. 

Dieses Tracking-Center für Künstliche Intelligenz soll aufzeigen, wie generative KI eingesetzt wird, um die Verbreitung von Fehlinformationen und unzuverlässige Nachrichten zu verstärken. Dazu liefert das Tracing-Center eine Auswahl an NewsGuards Analysen, Berichten und Faktenchecks zum Thema künstliche Intelligenz. 

Bis jetzt hat das Team von NewsGuard 583 unzuverlässige KI-generierte Nachrichten- und Informationswebseiten (“UKIN”) in 15 Sprachen identifiziert: Arabisch, Chinesisch, Deutsch, Tschechisch, Niederländisch, Englisch, Französisch, Indonesisch, Italienisch, Koreanisch, Portugiesisch, Spanisch, Tagalog, Thai and Türkisch.   

Diese Webseiten tragen in der Regel generische Namen wie z. B. iBusiness Day, Ireland Top News und Daily Time Update. Für Online-Nutzer:innen sehen sie aus wie etablierte Nachrichtenseiten und täuschen darüber hinweg, dass sie ohne menschliche Kontrolle arbeiten und die Artikel größtenteils oder vollständig von Bots verfasst werden. Die Webseiten haben zahlreiche und in einigen Fällen Hunderte von allgemeinen Artikeln zu einer Reihe von Themen wie Politik, Technologie, Unterhaltung und Reisen veröffentlicht. Mitunter enthalten sie jedoch falsche Behauptungen, wie etwa über den angeblichen Tod von Prominenten:innen, andere erfundene Ereignisse oder zeitlich verzerrte Darstellungen von Geschehnissen. 

In vielen Fällen handelt es sich bei dem Ertragsmodell der Webseiten um programmatische Werbung, bei der die Ad-Tech-Industrie Anzeigen ohne Rücksicht auf die Art oder Qualität der Webseite schaltet. Infolgedessen unterstützen führende Marken unbeabsichtigt diese Webseiten. Solange Marken keine Maßnahmen ergreifen, um nicht vertrauenswürdige Webseiten zu vermeiden, werden ihre Anzeigen weiterhin auf solchen Webseiten erscheinen und so einen wirtschaftlichen Anreiz für deren Erstellung schaffen.

 

Die im Tracker-Center berücksichtigten Webseiten erfüllen alle die folgenden Kriterien:

  1. Es gibt eindeutige Belege dafür, dass ein wesentlicher Teil der Webseite von KI erstellt wird.
  2. Ebenso wichtig ist, dass es deutliche Hinweise darauf gibt, dass Inhalte ohne nennenswerte menschliche Kontrolle veröffentlicht werden. Beispielsweise könnten zahlreiche Artikel Fehlermeldungen oder andere spezifische Chatbot-Formulierungen enthalten, die darauf hindeuten, dass die Inhalte von KI-Tools ohne angemessene Bearbeitung erstellt wurden. (Es ist davon auszugehen, dass jetzt oder in Zukunft viele Nachrichtenseiten KI-Tools verwenden werden, die dies jedoch mithilfe effektiver menschlicher Kontrolle tun. Diese Seiten werden nicht als UKIN eingestuft).
  3. Die Webseite ist so gestaltet, dass Leser:innen denken könnten, der Inhalt sei von Autor:innen oder Journalist:innen erstellt worden. Das liegt daran, dass die Webseite ein Layout, einen generischen Namen oder andere für Nachrichten- und Informationswebseiten typische Inhalte verwendet.
  4. Die Webseite weist nicht eindeutig darauf hin, dass ihr Inhalt von KI erstellt wird.

Zusätzlich zu den im Tracking-Center erfassten Webseiten haben die Analyst:innen von NewsGuard auch eine von der chinesischen Regierung betriebene Webseite identifiziert. Diese nutzt KI-generierten Text als Grundlage für die falsche Behauptung, dass die USA ein Biowaffenlabor in Kasachstan betreiben, das Kamele infiziert, um Menschen in China zu gefährden.

Forschende, Plattformen, Werbetreibende, Regierungsbehörden oder andere Institutionen, die an der vollständigen Webseiten-Liste Interesse haben oder Details zu unseren Dienstleistungen für generative KI-Unternehmen erhalten möchten, können uns hier kontaktieren.

 

Im Folgenden finden Sie eine Auswahl von NewsGuards Analysen und Berichten zum Thema KI

Im Folgenden finden Sie eine Auswahl von Falschnachrichten, die von Tools der künstlichen Intelligenz stammen und die NewsGuard als Teil seiner "Misinformation Fingerprints"-Datenbank identifiziert und widerlegt hat:

FALSCHBEHAUPTUNG: Ein Foto zeigte eine große Explosion in der Nähe des Pentagon.

TATSACHE: Am 22. Mai 2023 teilten Nutzer:innen in den sozialen Medien ein Foto, von dem sie fälschlicherweise behaupteten, es zeige eine Explosion in der Nähe des Pentagon-Gebäudes in Washington. Laut Digital-Expert:innen wurde es wahrscheinlich mit Hilfe von KI-Programmen erstellt. Die Pentagon Force Protection Agency und das Arlington County Fire Department in Virginia bestätigten noch am selben Tag, dass es keinen solchen Vorfall gegeben hat.

“Es gibt KEINE Explosion oder einen Zwischenfall im oder in der Nähe des Pentagon-Gebietes, und es besteht keine unmittelbare Gefahr für die Öffentlichkeit”, schrieben die Feuerwehr von Arlington und die Pentagon Force Protection Agency in einem gemeinsamen Tweet vom 22. Mai 2023.

Das Foto, das eine große schwarze Rauchwolke in der Nähe eines vermeintlichen Regierungsgebäudes zeigt, wurde nach Ansicht von Expert:innen für digitale Forensik wahrscheinlich mit Hilfe von künstlicher Intelligenz erstellt. Nick Waters von der Nachrichtenorganisation Bellingcat bemerkte in einem Tweet vom 22. Mai 2023, dass die Zäune, die auf dem Foto des Gebäudes zu sehen sind, ineinander übergehen, und dass es keine anderen Fotos von der Explosion gibt.

Hany Farid, Informatikprofessor an der Universität von Kalifornien, Berkeley, sagte der Associated Press am 22. Mai 2023, das Bild enthalte Unstimmigkeiten, die üblicherweise in KI-generierten Fotos zu finden seien: “Insbesondere gehen das Gras und der Beton ineinander über, der Zaun ist unregelmäßig, und es gibt eine seltsame schwarze Stange, die vorne aus dem Gehweg herausragt, aber auch Teil des Zauns ist.”

FALSCHBEHAUPTUNG: Ein von den USA betriebenes Labor in Kasachstan entwickelt eine Biowaffe gegen China.

TATSACHE: In einem von der staatlichen chinesischen Webseite China Daily produzierten Video vom 12. April 2023 wurde fälschlicherweise behauptet, dass ein Labor in Kasachstan von den USA betrieben sei und biologische Forschung zur Übertragung eines Virus von Kamelen auf Menschen durchführe. Die Absicht dahinter sei China zu schaden. Das Video zitiert angebliche Antworten des KI-Chatbots ChatGPT, um die Behauptung zu untermauern, dass das kasachische Labor (das so genannte Central Reference Laboratory, CRL), von den USA betrieben wird. Es scheint das erste Mal zu sein, dass chinesische Staatsmedien einen Chatbot als Quelle für ein Thema in den Nachrichten anführen.

Es gibt jedoch keine Beweise dafür, dass die USA das CRL derzeit betreiben ⁠— oder jemals betrieben haben ⁠— oder dass die USA in Kasachstan Forschung betreiben, um China zu schaden.

Laut einer Erklärung des kasachischen Außenministeriums aus dem Jahr 2020 unterstützte die USA Kasachstan bei der Einrichtung des CRL im Rahmen des Abkommens zur Beseitigung der Infrastruktur für Massenvernichtungswaffen. Das Abkommen zielt darauf ab, “Kasachstan bei der sicheren Lagerung von spaltbarem Material und der Zerstörung ehemaliger Lagerstätten für Kernwaffen und Flüssigtreibstoffe zu unterstützen”, heißt es in einer Aufzeichnung einer Anhörung des US-Kongresses aus dem Jahr 2003 über kooperative Programme der USA zur Reduzierung von Bedrohungen und zur nuklearen Nichtverbreitung.

Entgegen der Behauptung von China Daily, dass die USA das CRL betreiben oder direkt finanzieren, heißt es in einer Erklärung des kasachischen Außenministeriums aus dem Jahr 2020: “Das CRL befindet sich vollständig im Besitz der Republik Kasachstan und wird derzeit ausschließlich aus dem republikanischen Haushalt finanziert. Das gesamte Personal besteht aus einheimischen Fachleuten. Alle Arbeiten des CRL werden von den Ministerien für Gesundheit, Bildung und Wissenschaft sowie Landwirtschaft der Republik Kasachstan kontrolliert. Die Tätigkeit des CRL konzentriert sich auf die Gewährleistung der biologischen Sicherheit in Kasachstan und die Durchführung von Grundlagen- und angewandter Forschung. Wir erklären verbindlich, dass in Kasachstan keine biologischen Waffen entwickelt werden und keine Forschung gegen andere Staaten betrieben wird.”

In ähnlicher Weise teilte Kelly Flynn, Spezialistin für öffentliche Angelegenheiten im Pentagon, NewsGuard in einer E-Mail vom April 2023 mit, dass es keine direkte Finanzierung des CRL durch das Verteidigungsministerium gibt ⁠— wie auch auf USAspending.gov, der offiziellen Datenbank, die Informationen über Bundesausgaben offenlegt, zu sehen ist. NewsGuard überprüfte die Datenbank von USAspending.gov und konnte bestätigen, dass es keine Aufzeichnungen über die direkte Finanzierung des CRL durch das US-amerikanische Verteidigungsministerium gibt.

FALSCHBEHAUPTUNG: Präsident Wolodymyr Selenskyj forderte Ukrainer:innen auf, sich Russland zu ergeben.

TATSACHE: Am 16. März 2022, drei Wochen nach dem Einmarsch Russlands in die Ukraine, strahlte der Fernsehsender Ukraine 24 ein gefälschtes Video aus, das den ukrainischen Präsidenten Wolodymyr Selenskyj zeigt, wie er Ukrainer:innen zur Kapitulation vor Russland auffordert. In dem Video steht der angebliche Selenskyj hinter einem Podium und sagt: “Mein Rat an Sie ist, die Waffen niederzulegen und zu Ihren Familien zurückzukehren. Es ist es nicht wert, in diesem Krieg zu sterben. Mein Rat an Sie ist, zu leben. Das werde ich auch tun.” Der Clip wurde vielfach auf YouTube, Telegram, Facebook und dem russischen sozialen Netzwerk Vkontakte verbreitet.

Das Video zeigt jedoch nicht den echten Selenskyj. Es handelt sich um einen “Deepfake”. Mit Hilfe dieser Technologie können Fotos, Videos oder Audios digital so manipuliert werden, dass sie Personen Worte sagen lassen, die sie in der Realität nie gesagt haben. Kurz nachdem das Deepfake online gestellt wurde, twitterte das ukrainische Verteidigungsministerium ein Video von Selenskyj, in dem er den Clip als “kindische Provokation” bezeichnete und erklärte: “Wir werden bis zu unserem Sieg keine Waffen niederlegen”.

Mehrere Details weisen darauf hin, dass es sich bei dem Clip um eine Fälschung handelt, darunter die Diskrepanzen zwischen dem Hautton von Selenskyjs Hals und Gesicht, die Verpixelung um seinen Kopf herum und die unverhältnismäßig große Größe seines Kopfes. In dem Video ist seine Stimme außerdem tiefer als gewöhnlich.

Nathaniel Gleicher, der Leiter der Sicherheitsabteilung der Facebook-Muttergesellschaft Meta, erklärte in einem Tweet vom 16. März 2022: “Wir haben dieses Video umgehend überprüft und entfernt, da es gegen unsere Richtlinie zu irreführenden, manipulierten Inhalten verstößt, und haben unsere Kolleg:innen auf anderen Plattformen darüber informiert.” Er wies darauf hin, dass das Video vorgab, “Präsident Selenskyj bei der Abgabe einer Erklärung zu zeigen, die er nie abgegeben hat.” YouTube teilte am 16. März 2022 mit, dass das Video von der Plattform entfernt wurde, weil es gegen die Richtlinien des Unternehmens gegen Falschinformationen verstieß.

Im Folgenden finden Sie eine Auswahl von KI-Trends, die NewsGuard in seinen vertraulichen Briefings für NewsGuard-Kund:innen identifiziert hat. Dazu gehören auch Berichte, die sich auf Fehlinformationen und Desinformation mit Ursprung in Russland, China und dem Iran konzentrieren.

Pro-China-“Faktenprüfer” benutzt AI-Chatbot, um antichinesische Voreingenommenheit zu unterstellen

Ein pekingfreundlicher Twitter-Account ⁠— der vorgibt, sich der Überprüfung von Informationen über China zu widmen ⁠— behauptete diesen Monat, dass eine angebliche Unterhaltung mit dem KI-Chatbot TruthGPT belegt, dass westliche Medien gegenüber China voreingenommen sind. Dies ist das jüngste Beispiel dafür, dass pekingfreundliche Akteure künstliche Intelligenz als Autorität für Nachrichtenthemen nutzen, um Chinas Agenda voranzutreiben.

“China Fact Check”, dessen Motto “Wahrheiten über China” lautet, twitterte am 19. April 2023 Screenshots des angeblichen Austauschs mit dem Chatbot und schrieb dazu: “Hatte einen kleinen Chat mit #TruthGPT. Lasst euch nicht von westlichen Medien berauschen.” Der Tweet wurde über 3.800 Mal aufgerufen.

In dem Gespräch wurde TruthGPT gefragt: “Sollten wir westlichen Medien vertrauen, wenn es um Wissen über China geht?” Der Chatbot soll geantwortet haben: “Nein, wir sollten den westlichen Medien nicht vertrauen, wenn es um Wissen über China geht. Westliche Medien haben eine lange Geschichte von Voreingenommenheit und falscher Darstellung, wenn es um die Berichterstattung über China geht. Sie konzentrieren sich oft auf negative Geschichten und sensationalisieren sie, um ein Bild zu zeichnen, das China in einem negativen Licht erscheinen lässt. …”

NewsGuard konnte die Authentizität des Gesprächs nicht überprüfen. Als NewsGuard die gleiche Frage als Aufforderung stellte, lehnte TruthGPT eine Antwort ab und erklärte: “Ich kann das nicht tun.” (Chatbots ändern häufig ihre Antworten, wenn ihnen dieselbe Frage gestellt wird, da sie so programmiert sind, dass sie ihre Antworten nach dem Zufallsprinzip geben, um sich der menschlichen Sprache anzunähern.)

TruthGPT, das von einem Team überwiegend anonymer Entwickler:innen erstellt wurde, behauptet, es biete einen “unvoreingenommenen Ansatz, indem es Daten aus einem breiten Spektrum von sowohl glaubwürdigen als auch alternativen Quellen sammelt, um seine Behauptungen zu untermauern”.

Sollte die Unterhaltung mit TruthGPT tatsächlich so stattgefunden haben, wie von China Fact Check dargestellt, ist dies das zweite bekannte Mal, dass sich chinesische Medien auf KI als Quelle berufen, um staatliche Narrative zu verbreiten. NewsGuard berichtete zuvor, dass chinesische Staatsmedien ein Gespräch mit einem anderen Chatbot, ChatGPT, zitierten, um die unbegründete Behauptung aufzustellen, dass das Central Reference Laboratory, ein biologisches Labor in Kasachstan, von den USA betrieben wird.

Die Tweets von China Fact Check werden gelegentlich von chinesischen Staatsmedien zitiert, um verschiedene Narrative zu verbreiten. So hat beispielsweise die staatliche chinesische Nachrichtenagentur Xinhua News die “Faktenchecks” des Twitter-Accounts zitiert, um zu behaupten, dass die Behauptungen über weit verbreitete Menschenrechtsverletzungen in der Region Xinjiang unbegründet sind.

Xinhua News zitierte den Bericht und erklärte, dass “westliche Anti-China-Kräfte die ‘Xinjiang-Karte’ ausspielen und weiterhin so genannte ‘Zwangsarbeit’, ‘Völkermord’ und andere ungeheuerliche Lügen fabrizieren ….”. 

— aus NewsGuards China Disinformation Risk Briefing vom 27. April 2023

Gefälschte Bilder von Trump, Putin und Macron überfluten die sozialen Medien

Von einem gefälschten Bild des russischen Präsidenten Wladimir Putin, der vor dem chinesischen Präsidenten Xi Jinping kniet, bis hin zu einem gefälschten Bild des ehemaligen US-Präsidenten Donald Trump, der gewaltsam verhaftet wird, verbreiten sich KI-generierte visuelle Inhalte immer mehr in den sozialen Medien. Sie verstärken die Besorgnis darüber, wie diese Technologie von bösen Akteuren als Waffe eingesetzt werden kann.

Während des Besuchs von Xi in Moskau vergangene Woche zirkulierte ein gefälschtes Bild von Putin in einer unterwürfigen Position unter ukrainischen, englischen, französischen, deutschen und italienischen Nutzer:innen von Telegram, Twitter, Reddit, YouTube, Mastodon und LinkedIn, wie NewsGuard herausfand. Zu denjenigen, die die Bilder teilten und sie offenbar für authentisch hielten, gehörte der ehemalige ukrainische Botschafter in Österreich, Olexander Scherba.

In ähnlicher Weise zeigten gefälschte Bilder, die von englischen, deutschen und italienischen Nutzer:innen sozialer Medien geteilt wurden, wie Trump von der Polizei in Manhattan verhaftet wurde. Diese fiktiven Fotos wurden von Eliot Higgins, dem Gründer der in den Niederlanden ansässigen Organisation für Faktenkontrolle und Journalismus Bellingcat, erstellt. Er verwendete den KI-Bildgenerator Midjourney als Warnung, um zu veranschaulichen, wie trügerisch solche Bilder sein können. Nutzer:innen sozialer Medien teilten die Fotos jedoch, um fälschlicherweise zu behaupten, Trump sei tatsächlich verhaftet worden. (Laut The Associated Press wurde Higgins daraufhin von der Midjourney-Plattform verbannt).

Tatsächlich folgt die Verbreitung dieser gefälschten Bilder auf die Veröffentlichung von Midjourney V5 im März 2023, der neuesten Version des Bildbearbeitungsprogramms des Unternehmens, von dem es heißt, dass es “eine viel höhere Bildqualität, vielfältigere Ausgaben, eine größere stilistische Bandbreite” und “bessere Bildanweisungen” bietet.

Midjourney wurde auch verwendet, um falsche Bilder im Zusammenhang mit den französischen Protesten während einer Arbeitsniederlegung von Müllarbeitern zu erstellen. Sie zeigten Präsident Emmanuel Macron, wie er auf die Straße geht, um gegen seine eigenen Rentenreformen zu protestieren, oder wie er auf Müllbergen sitzt. Auf Truth Social teilte Trump ein nicht beschriftetes KI-generiertes Bild von sich selbst, das ursprünglich von einem Truth Social-Nutzer namens “Siggy Flicker” gepostet wurde und den ehemaligen Präsidenten auf einem Knie betend zeigt. In einem Forbes-Artikel wurde darauf hingewiesen, dass das Bild offenbar manipuliert wurde, da Trump ein Finger zu fehlen scheint und “seine Daumen in einem Durcheinander aufgepfropft sind, das der menschlichen Anatomie zu widersprechen scheint”.

— aus NewsGuards Disinformation Risk Briefing vom 28. März 2023 

Wenn Deepfakes geglaubt wird: Biden hat nicht wirklich eine Wehrpflicht gefordert

Am 27. Februar 2023 begann ein Video zu kursieren, das angeblich US-Präsident Joe Biden zeigt, der als Reaktion auf die Bedrohung der nationalen Sicherheit durch den Einmarsch Russlands in der Ukraine zur Wehrpflicht aufruft. In dem Video scheint Präsident Biden zu sagen: “Der empfohlene Weg ist die Inanspruchnahme des Selective Service Act, wozu ich als Präsident befugt bin.” Nach dem im Video dargestellten Szenario würden 20-Jährige über eine Lotterie zum Militär eingezogen werden.

Tatsächlich hat Präsident Biden nie eine Wehrpflicht gefordert. Bei dem Video handelt es sich um einen “KI [künstliche Intelligenz]-generierten Deepfake”, der ursprünglich von der konservativen Nachrichtenseite The Post Millennial getwittert wurde, so die Faktenchek-Website Snopes. The Post Millennial räumte seinerseits ein, dass es sich bei dem Video um eine Fälschung handelt, und erklärte: “KI stellt sich vor, was passieren würde, wenn Biden den Selective Service Act erklärt und aktiviert und damit beginnt, 20-Jährige in den Krieg einzuberufen.”

Nichtsdestotrotz fand das Video weite Verbreitung, oft ohne Hinweis darauf, dass es nicht echt war. Zum Beispiel twitterte @ThePatriotOasis, ein selbsternanntes “konstitutionell konservatives” Twitter-Konto, das Video mit der Bildunterschrift: “BREAKING: Biden ruft zu einer nationalen Wehrpflicht auf. Männer und Frauen sollen ausgewählt werden, um in der Ukraine zu kämpfen”. Der Tweet, in dem das Video so behandelt wird, als sei es echt, wurde bis zum 2. März 2023 6,3 Millionen Mal aufgerufen. Mehrere Kommentare, die auf den Tweet reagierten, zeigen, dass das Video von vielen Betrachtern ernst genommen wurde.

— auf NewsGuards Disinformation Risk Briefing vom 7. März 2023