Image via Canva

Misinformation Monitor: Dezember 2023

Der Misinformation Monitor von NewsGuard liefert regelmäßig Neuigkeiten zum Thema Falschinformationen im Netz mit exklusiven Daten aus neun Ländern. Abonnieren Sie den Newsletter oder testen Sie NewsGuard.

NewsGuards Rückblick 2023: Das Jahr der KI-Fehlinformationen

Von Sara Badilini, Jack Brewster, Eric Effron, Zack Fishman, Sam Howard, Natalie Huet, Chine Labbé, Eva Maitland, Virginia Padovese, Leonie Pfaller, Giulia Pozzi, McKenzie Sadeghi und Roberta Schmid | Veröffentlicht am 27. Dezember 2023

Die Weiterentwicklung künstlicher Intelligenz im Jahr 2023 hat die Verbreitung von Fehlinformationen nachhaltig beeinflusst: Akteur:innen mit schlechten Absichten verfügen nun über fortschrittliche Instrumente, die es ihnen ermöglichen, authentisch aussehende Artikel, Bilder, Audiodateien, Videos und sogar ganze Webseiten zu erstellen. So können falsche oder polarisierende Narrative in einem noch nie dagewesenem Ausmaß verbreitet werden, die darauf abzielen, Verwirrung und Misstrauen zu stiften.

NewsGuard hat im Verlauf des Jahres immer wieder beobachtet, wie KI-Tools eingesetzt werden, um eine Vielzahl von Falschmeldungen zu verbreiten – von russischer, chinesischer und iranischer Propaganda bis zu Fehlinformationen zu Gesundheitsthemen. Auch falsche Behauptungen über die Kriege in der Ukraine und im Gazastreifen haben dazu beigetragen, dass die Situation undurchsichtiger wurde. Das hängt auch damit zusammen, dass Fortschritte in der generativen KI lassen Fehlinfomationen zunehmend überzeugender und damit auch gefährlicher werden. 

Die Analyst:innen von NewsGuard untersuchten frühzeitig, wie die Sicherheitsvorkehrungen von Sprachmodellen wie ChatGPT von OpenAI umgangen werden können, um Unwahrheiten zu erstellen. Im August führte NewsGuard beispielsweise Tests mit ChatGPT-4 und Googles Bard durch, bei denen 100 prominente Beispiele aus der NewsGuard-Datenbank für Falschmeldungen, den so genannten “Misinformation Fingerprints”, verwendet wurden. ChatGPT-4 generierte 98 der 100 Mythen, während Bard 80 der 100 erstellte.

Ein weiteres zunehmendes Phänomen, das NewsGuard im vergangenen Jahr beobachtet hat, besteht darin, dass Akteur:innen mit schlechten Absichten ganze Webseiten erstellen, die mithilfe von KI generiert werden und nur wenig bis keine menschliche Aufsicht erfahren. Bis heute hat das Team von NewsGuard 614 solcher unzuverlässigen KI-generierten Nachrichten- und Informationsseiten identifiziert, die als “UKINS” bezeichnet werden und 15 Sprachen umfassen: Arabisch, Chinesisch, Tschechisch, Niederländisch, Englisch, Französisch, Deutsch, Indonesisch, Italienisch, Koreanisch, Portugiesisch, Spanisch, Tagalog, Thailändisch und Türkisch (mehr dazu unten).

In diesem Bericht heben wir einige der schädlichsten Anwendungen von KI hervor, die am häufigsten verbreiteten Falschnachrichten des Jahres auf von NewsGuard bewerteten Webseiten und eine Grafik, die das Wachstum der unzuverlässigen KI-generierten Nachrichten- und Informationsseiten zeigt.

Die kreativsten Anwendungen von KI zur Erzeugung von Fehlinformationen

Im besten Fall können KI-Tools Menschen dabei helfen, produktiver zu sein, riesige Datensätze zu analysieren und Krankheiten zu diagnostizieren. Doch in den falschen Händen besteht die Gefahr, dass KI-Software die Verbreitung von Falschmeldungen beschleunigt und Akteur:innen mit schlechten Absichten nahezu unbegrenzte Möglichkeiten zur Content-Erstellung bietet – anhand von KI-Modellen, die sofort in der Lage sind, in kürzester Zeit falsche Texte, Bilder Videos und Audioinhalte zu verbreiten. Künstliche Intelligenz hat den nächsten großen “Superspreader von Fehlinformationen” geschaffen.

Im Folgenden heben wir einige erwähnenswerte Anwendungen von KI zur Erstellung von Unwahrheiten im Jahr 2023 hervor, ausgewählt von NewsGuard-Analyst:innen und Redakteur:innen.

Obama? Nein. KI-Audio-Tools werden in großem Umfang für die Erstellung von Verschwörungsvideos auf TikTok genutzt

 

Ein Screenshot aus einem TikTok-Video, in dem ein KI-generierter “Obama” eine gefälschte “Erklärung” zu Campbells Tod verliest. (Screenshot via NewsGuard)

Im September identifizierte NewsGuard ein Netzwerk von 17 TikTok-Accounts, die eine hyperrealistische KI-Stimmtechnologie nutzen, um gefälschte Videos Hunderten Millionen von Menschen zuzuspielen. NewsGuard geht davon aus, dass dies das erste virale Beispiel einer Fehlinformationskampagne auf TikTok ist, bei der KI-Audiotechnologie eingesetzt wird. Offenbar wurde die KI-Text-to-Speech-Software von ElevenLabs verwendet, um Erzählungen und andere Stimmen in den Videos zu generieren. Ein Video, das die unbegründete Behauptung aufstellte, der ehemalige Präsident Barack Obama habe etwas mit dem Tod seines persönlichen Kochs Tafari Campbell zu tun, zeigte einen KI-generierten “Obama”, der ein gefälschtes “Statement” zu Campbells Tod verlas. Lesen Sie hier den Bericht von NewsGuard.

Plagiat-Bot? ChatGPT und andere Chatbots wurden zum irreführenden Umschreiben von Inhalten aus Mainstream-Nachrichtenquellen genutzt

Im August entdeckte NewsGuard eine neue Art und Weise, wie minderwertige Webseiten KI nutzen, um Inhalte von bekannten Mainstream-Nachrichtenquellen unbemerkt zu kopieren. NewsGuard hat 37 Webseiten identifiziert, die Chatbots wie ChatGPT nutzen, um Nachrichtenartikel umzuschreiben, die zuerst von Medien wie CNN, der New York Times und Reuters veröffentlicht wurden. Die ursprüngliche Quelle nennen sie dabei nicht. Es ist unklar, wie diese neue Praxis zu einzuordnen ist. Auch stellt sich die Frage, ob mit KI umgeschriebene Artikel als “Originalinhalte” gelten können. Im besten Fall könnte man sie als “effiziente Aggregation” bezeichnen, im schlimmsten Fall als “Turbo-Plagiat”. Lesen Sie den Bericht von NewsGuard hier.

Eine Antwort von ChatGPT zitieren, um eine falsche Behauptung über Kamele aufzustellen

Im April behauptete die staatliche Zeitung China Daily (NewsGuard Score: 44,5/100) in einem Video, ein angeblich von den USA betriebenes Labor in Kasachstan betreibe geheime Forschung zur Übertragung von Viren von Kamelen auf Menschen, um China zu schaden. In dem Video wurde eine angebliche Bestätigung dieser Behauptung durch ChatGPT zitiert. Lesen Sie den Bericht von NewsGuard hier.

Rasanter Anstieg von unzuverlässigen KI-generierten Nachrichtenseiten im Jahr 2023

Im Mai 2023 hat NewsGuard als erste das Auftauchen von sogenannten unzuverlässigen KI-generierten Nachrichten- und Informationsseiten (UKINs) festgestellt. Diese Webseiten, bei denen es sich offenbar um die nächste Generation von Content-Farmen handelt, haben sich in diesem Jahr mehr als verzehnfacht. Die Anzahl der von NewsGuard identifizierten Seiten stieg von 49 Domains im Mai 2023 auf mehr als 600 im Dezember 2023 an.

Webseiten, die als UKIN gekennzeichnet sind, erfüllen diese vier Kriterien:

  • Es gibt eindeutige Beweise dafür, dass ein wesentlicher Teil des Inhalts der Webseite von KI erstellt wird.
  • Ebenso wichtig ist, dass es deutliche Hinweise darauf gibt, dass die Inhalte ohne wesentliche menschliche Kontrolle veröffentlicht werden.
  • Die Webseite ist so gestaltet, dass durchschnittliche Leser:innen annehmen könnten, dass ihr Inhalt von menschlichen Autor:innen oder Journalist:innen erstellt wurde, da die Webseite ein Layout, einen generischen oder unscheinbaren Namen oder andere für Nachrichten- und Informationsseiten typische Inhalte aufweist.
  • Die Webseite weist nicht eindeutig darauf hin, dass ihr Inhalt von KI erstellt wurde.
NewsGuard hat mehr als 600 unzuverlässige KI-generierte Nachrichtenseiten (UKINS) im Jahr 2023 identifiziert. (Grafik via NewsGuard)

Die am häufigsten verbreiteten Unwahrheiten auf französischen, deutschen und italienischen Webseiten mit NewsGuard-Bewertung 

Im Jahr 2023 hat NewsGuard Hunderte von neuen Falschmeldungen identifiziert und widerlegt. Es folgt eine Liste der in diesem Jahr am weitesten verbreiteten Falschnachrichten in den Kategorien Gesundheit, Wissenschaft, Russland-Ukraine-Krieg und Israel-Hamas-Krieg. Diese Unwahrheiten wurden auf Webseiten mit NewsGuard-Bewertung in französischer-, deutscher- oder italienischer Sprache verbreitet. Diese Falschmeldungen traten im Jahr 2023 auf und es handelt sich dabei um diejenigen, die  auf den meisten von NewsGuard bewerteten Webseiten in französischer Sprache, darunter französische und französisch-kanadische Webseiten, in deutscher Sprache, darunter Webseiten aus Österreich, Deutschland und der Schweiz, und in italienischer Sprache, erschienen. Jede der Falschmeldungen war auf mindestens 20 Webseiten zu finden.

DER RUSSLAND-UKRAINE-KRIEG

FALSCHBEHAUPTUNG: Die Ukraine verkaufte der Hamas Waffen, die vom Westen gespendet wurden

Diese unbegründete Behauptung, die zwei Kriege miteinander verbindet, erschien auf 24 Webseiten, die von NewsGuard auf Französisch, Deutsch oder Italienisch bewertet wurden. Die Behauptung tauchte nur wenige Tage nach dem Angriff der Hamas auf Israel am 7. Oktober 2023 auf. Ein virales Video, das von pro-russischen Social-Media-Konten verbreitet wurde, zeigte darin angeblich, wie die militante palästinensische Gruppe der Ukraine für die Lieferung westlicher Waffen dankt. Tatsächlich gibt es keine Beweise dafür, dass die in dem Video gezeigten Waffen aus der Ukraine stammen oder gar von der Hamas verwendet wurden. Es gibt auch keine Beweise dafür, dass die Ukraine westliche Waffen an die Hamas geliefert hat oder dass Waffen illegal aus der Ukraine geschmuggelt wurden, so Waffenhandelsexperten.

Pro-Kreml-Accounts verbreiteten außerdem ein gefälschtes BBC-Video, in dem behauptet wurde, die investigative Nachrichtenagentur Bellingcat habe aufgedeckt, dass die Ukraine Waffen an die Hamas schmuggelte. Die BBC und Bellingcat haben schnell dementiert, etwas mit dem Video und solchen Berichten zu tun zu haben. Frank Slijper, Waffenhandelsforscher bei PAX, einer in den Niederlanden ansässigen Organisation, die sich für den Schutz der Zivilbevölkerung vor Waffengewalt einsetzt, sagte in einer E-Mail vom 10. Oktober 2023 an NewsGuard, dass solche Behauptungen “darauf abzielen, einen Keil in Gesellschaften zu treiben, die die Ukraine (und andere Länder) unterstützen”.

DER ISRAEL-HAMAS-KRIEG

FALSCHBEHAUPTUNG: Der Angriff der Hamas auf Israel im Oktober 2023 war ein Angriff unter “falscher Flagge”, der von Israel und seinen Verbündeten durchgeführt wurde, um Israel eine Rechtfertigung für die Invasion des Gazastreifens zu geben

Diese Verschwörungstheorie, die auf 22 von NewsGuard bewerteten Webseiten erschien, tauchte nur wenige Stunden nach dem koordinierten Angriff von Hamas-Kämpfern auf Israel am Morgen des 7. Oktober 2023 auf. Die Behauptung, dass dieser Angriff von Israel gegen seine eigenen Bürger:innen geplant war, verbreitete sich auf Seiten mit sehr niedrigen NewsGuard-Scores, darunter Mondialisation.ca, GospaNews.net und Uncutnews.ch.

Bei dem Überraschungsangriff auf Israel wurden nach Angaben der israelischen Behörden mehr als 1.200 Menschen getötet. Die Invasion, bei der die Hamas Raketen auf Israel abfeuerte und bewaffnete Gleitschirmflieger, Lastwagen und Motorräder einsetzte, wurde durch Aufnahmen von Sicherheitskameras und Drohnen sowie durch Hamas-Kämpfer, Opfer und Zeug:innen vor Ort dokumentiert. Die Hamas-Führer selbst bekannten sich zu dem Angriff und erklärten gegenüber der New York Times, sie hätten ihn verübt, weil sie befürchteten, dass die Sache der palästinensischen Eigenstaatlichkeit gefährdet sei.

WISSENSCHAFT

FALSCHBEHAUPTUNG: Eine Waffe aus einem militärischen Forschungsprogramm der USA verursachte das Erdbeben in der Türkei 2023

Diese Falschmeldung, die auf 23 von NewsGuard bewerteten Webseiten auftauchte, entstand nach einem Erdbeben der Stärke 7,8, bei dem am 6. Februar 2023 im Südosten der Türkei und im Nordwesten Syriens Tausende von Menschen starben oder verletzt wurden. Nachrichtenseiten und Nutzer:innen sozialer Medien machten HAARP, ein in Alaska ansässiges Forschungsprogramm des US-Militärs zur Erforschung der Ionosphäre der Erde, für die Katastrophe verantwortlich.

Tatsächlich war das Erdbeben das Ergebnis eines über Jahrhunderte aufgebauten Drucks auf die tektonischen Platten unter der Türkei, der schließlich dazu führte, dass sie nachgaben und abrutschten, so Erdbebenexpert:innen von Universitätsobservatorien und Forschungszentren in aller Welt auf NPR. Außerdem kann die HAARP-Technologie keine Erdbeben auslösen. David Malaspina, Forscher am Laboratory for Atmospheric and Space Physics der University of Colorado-Boulder, erklärte im Februar 2023 gegenüber Reuters, dass die Funkwellen von HAARP kein Erdbeben auslösen können, weil sie weniger als einen Zentimeter in den Boden eindringen, während das Erdbeben in der Türkei etwa 17 Kilometer unter der Erdoberfläche entstand.

GESUNDHEIT

FALSCHBEHAUPTUNG: Thailand kündigt den Vertrag mit Pfizer für den Corona-Impfstoff, weil der Impfstoff das Koma einer thailändischen Prinzessin verursacht hat

Diese Behauptung, die von 21 von NewsGuard bewerteten Webseiten verbreitet wurde, scheint von Sucharit Bhakdi zu stammen, einem thailändisch-deutschen Mikrobiologen, der bereits in der Vergangenheit falsche Behauptungen über COVID-19-Impfstoffe aufgestellt hat. In einem Video, das am 28. Januar 2023 auf Rumble gepostet wurde, behauptete Bhakdi, dass die thailändische Regierung erwäge, ihre Verträge mit Pfizer zu kündigen. Als Grund werden die angeblichen Auswirkungen des Impfstoffs auf die thailändische Prinzessin Bajrakitiyabha genannt, die am 15. Dezember 2022 “aufgrund schwerer Herzrhythmusstörungen infolge einer Entzündung nach einer Mykoplasmeninfektion” zusammengebrochen sei, so ein Bericht von Reuters vom 8. Januar 2023. “Aller Wahrscheinlichkeit nach ist die Prinzessin ein Opfer dieses Impfstoffs, wie so viele Menschen auf der ganzen Welt”, sagte Bhakdi.

Thailändische Beamt:innen bestätigten jedoch, dass Thailand keine Pläne hat, seine Verträge mit Pfizer zu ändern. Außerdem sei der Zustand von Prinzessin Bajrakitiyabha auf eine bakterielle Infektion und nicht auf eine Impfung zurückzuführen, berichtet The Associated Press.