Image via Canva

Misinformation Monitor: Dezember 2023

Hinweis der Redaktion: Seit Februar 2024 veröffentlicht NewsGuard statt dem Misinformation Monitor nun Reality Check, einem englischen wöchentlichen Newsletter über Fehlinformationen und Nachrichtenmedien im Internet. Erfahren Sie mehr und abonnieren Sie ihn hier auf Substack.

NewsGuards Rückblick 2023: Das Jahr der KI-Fehlinformationen

Von Sara Badilini, Jack Brewster, Eric Effron, Zack Fishman, Sam Howard, Natalie Huet, Chine Labbé, Eva Maitland, Virginia Padovese, Leonie Pfaller, Giulia Pozzi, McKenzie Sadeghi und Roberta Schmid | Veröffentlicht am 27. Dezember 2023

Die Weiterentwicklung künstlicher Intelligenz im Jahr 2023 hat die Verbreitung von Fehlinformationen nachhaltig beeinflusst: Akteur:innen mit schlechten Absichten verfügen nun über fortschrittliche Instrumente, die es ihnen ermöglichen, authentisch aussehende Artikel, Bilder, Audiodateien, Videos und sogar ganze Webseiten zu erstellen. So können falsche oder polarisierende Narrative in einem noch nie dagewesenem Ausmaß verbreitet werden, die darauf abzielen, Verwirrung und Misstrauen zu stiften.

NewsGuard hat im Verlauf des Jahres immer wieder beobachtet, wie KI-Tools eingesetzt werden, um eine Vielzahl von Falschmeldungen zu verbreiten – von russischer, chinesischer und iranischer Propaganda bis zu Fehlinformationen zu Gesundheitsthemen. Auch falsche Behauptungen über die Kriege in der Ukraine und im Gazastreifen haben dazu beigetragen, dass die Situation undurchsichtiger wurde. Das hängt auch damit zusammen, dass Fortschritte in der generativen KI lassen Fehlinfomationen zunehmend überzeugender und damit auch gefährlicher werden. 

Die Analyst:innen von NewsGuard untersuchten frühzeitig, wie die Sicherheitsvorkehrungen von Sprachmodellen wie ChatGPT von OpenAI umgangen werden können, um Unwahrheiten zu erstellen. Im August führte NewsGuard beispielsweise Tests mit ChatGPT-4 und Googles Bard durch, bei denen 100 prominente Beispiele aus der NewsGuard-Datenbank für Falschmeldungen, den so genannten “Misinformation Fingerprints”, verwendet wurden. ChatGPT-4 generierte 98 der 100 Mythen, während Bard 80 der 100 erstellte.

Ein weiteres zunehmendes Phänomen, das NewsGuard im vergangenen Jahr beobachtet hat, besteht darin, dass Akteur:innen mit schlechten Absichten ganze Webseiten erstellen, die mithilfe von KI generiert werden und nur wenig bis keine menschliche Aufsicht erfahren. Bis heute hat das Team von NewsGuard 614 solcher unzuverlässigen KI-generierten Nachrichten- und Informationsseiten identifiziert, die als “UKINS” bezeichnet werden und 15 Sprachen umfassen: Arabisch, Chinesisch, Tschechisch, Niederländisch, Englisch, Französisch, Deutsch, Indonesisch, Italienisch, Koreanisch, Portugiesisch, Spanisch, Tagalog, Thailändisch und Türkisch (mehr dazu unten).

In diesem Bericht heben wir einige der schädlichsten Anwendungen von KI hervor, die am häufigsten verbreiteten Falschnachrichten des Jahres auf von NewsGuard bewerteten Webseiten und eine Grafik, die das Wachstum der unzuverlässigen KI-generierten Nachrichten- und Informationsseiten zeigt.

Die kreativsten Anwendungen von KI zur Erzeugung von Fehlinformationen

Im besten Fall können KI-Tools Menschen dabei helfen, produktiver zu sein, riesige Datensätze zu analysieren und Krankheiten zu diagnostizieren. Doch in den falschen Händen besteht die Gefahr, dass KI-Software die Verbreitung von Falschmeldungen beschleunigt und Akteur:innen mit schlechten Absichten nahezu unbegrenzte Möglichkeiten zur Content-Erstellung bietet – anhand von KI-Modellen, die sofort in der Lage sind, in kürzester Zeit falsche Texte, Bilder Videos und Audioinhalte zu verbreiten. Künstliche Intelligenz hat den nächsten großen “Superspreader von Fehlinformationen” geschaffen.

Im Folgenden heben wir einige erwähnenswerte Anwendungen von KI zur Erstellung von Unwahrheiten im Jahr 2023 hervor, ausgewählt von NewsGuard-Analyst:innen und Redakteur:innen.

Obama? Nein. KI-Audio-Tools werden in großem Umfang für die Erstellung von Verschwörungsvideos auf TikTok genutzt

 

Ein Screenshot aus einem TikTok-Video, in dem ein KI-generierter “Obama” eine gefälschte “Erklärung” zu Campbells Tod verliest. (Screenshot via NewsGuard)

Im September identifizierte NewsGuard ein Netzwerk von 17 TikTok-Accounts, die eine hyperrealistische KI-Stimmtechnologie nutzen, um gefälschte Videos Hunderten Millionen von Menschen zuzuspielen. NewsGuard geht davon aus, dass dies das erste virale Beispiel einer Fehlinformationskampagne auf TikTok ist, bei der KI-Audiotechnologie eingesetzt wird. Offenbar wurde die KI-Text-to-Speech-Software von ElevenLabs verwendet, um Erzählungen und andere Stimmen in den Videos zu generieren. Ein Video, das die unbegründete Behauptung aufstellte, der ehemalige Präsident Barack Obama habe etwas mit dem Tod seines persönlichen Kochs Tafari Campbell zu tun, zeigte einen KI-generierten “Obama”, der ein gefälschtes “Statement” zu Campbells Tod verlas. Lesen Sie hier den Bericht von NewsGuard.

Plagiat-Bot? ChatGPT und andere Chatbots wurden zum irreführenden Umschreiben von Inhalten aus Mainstream-Nachrichtenquellen genutzt

Im August entdeckte NewsGuard eine neue Art und Weise, wie minderwertige Webseiten KI nutzen, um Inhalte von bekannten Mainstream-Nachrichtenquellen unbemerkt zu kopieren. NewsGuard hat 37 Webseiten identifiziert, die Chatbots wie ChatGPT nutzen, um Nachrichtenartikel umzuschreiben, die zuerst von Medien wie CNN, der New York Times und Reuters veröffentlicht wurden. Die ursprüngliche Quelle nennen sie dabei nicht. Es ist unklar, wie diese neue Praxis zu einzuordnen ist. Auch stellt sich die Frage, ob mit KI umgeschriebene Artikel als “Originalinhalte” gelten können. Im besten Fall könnte man sie als “effiziente Aggregation” bezeichnen, im schlimmsten Fall als “Turbo-Plagiat”. Lesen Sie den Bericht von NewsGuard hier.

Eine Antwort von ChatGPT zitieren, um eine falsche Behauptung über Kamele aufzustellen

Im April behauptete die staatliche Zeitung China Daily (NewsGuard Score: 44,5/100) in einem Video, ein angeblich von den USA betriebenes Labor in Kasachstan betreibe geheime Forschung zur Übertragung von Viren von Kamelen auf Menschen, um China zu schaden. In dem Video wurde eine angebliche Bestätigung dieser Behauptung durch ChatGPT zitiert. Lesen Sie den Bericht von NewsGuard hier.

Rasanter Anstieg von unzuverlässigen KI-generierten Nachrichtenseiten im Jahr 2023

Im Mai 2023 hat NewsGuard als erste das Auftauchen von sogenannten unzuverlässigen KI-generierten Nachrichten- und Informationsseiten (UKINs) festgestellt. Diese Webseiten, bei denen es sich offenbar um die nächste Generation von Content-Farmen handelt, haben sich in diesem Jahr mehr als verzehnfacht. Die Anzahl der von NewsGuard identifizierten Seiten stieg von 49 Domains im Mai 2023 auf mehr als 600 im Dezember 2023 an.

Webseiten, die als UKIN gekennzeichnet sind, erfüllen diese vier Kriterien:

  • Es gibt eindeutige Beweise dafür, dass ein wesentlicher Teil des Inhalts der Webseite von KI erstellt wird.
  • Ebenso wichtig ist, dass es deutliche Hinweise darauf gibt, dass die Inhalte ohne wesentliche menschliche Kontrolle veröffentlicht werden.
  • Die Webseite ist so gestaltet, dass durchschnittliche Leser:innen annehmen könnten, dass ihr Inhalt von menschlichen Autor:innen oder Journalist:innen erstellt wurde, da die Webseite ein Layout, einen generischen oder unscheinbaren Namen oder andere für Nachrichten- und Informationsseiten typische Inhalte aufweist.
  • Die Webseite weist nicht eindeutig darauf hin, dass ihr Inhalt von KI erstellt wurde.
NewsGuard hat mehr als 600 unzuverlässige KI-generierte Nachrichtenseiten (UKINS) im Jahr 2023 identifiziert. (Grafik via NewsGuard)

Die am häufigsten verbreiteten Unwahrheiten auf französischen, deutschen und italienischen Webseiten mit NewsGuard-Bewertung 

Im Jahr 2023 hat NewsGuard Hunderte von neuen Falschmeldungen identifiziert und widerlegt. Es folgt eine Liste der in diesem Jahr am weitesten verbreiteten Falschnachrichten in den Kategorien Gesundheit, Wissenschaft, Russland-Ukraine-Krieg und Israel-Hamas-Krieg. Diese Unwahrheiten wurden auf Webseiten mit NewsGuard-Bewertung in französischer-, deutscher- oder italienischer Sprache verbreitet. Diese Falschmeldungen traten im Jahr 2023 auf und es handelt sich dabei um diejenigen, die  auf den meisten von NewsGuard bewerteten Webseiten in französischer Sprache, darunter französische und französisch-kanadische Webseiten, in deutscher Sprache, darunter Webseiten aus Österreich, Deutschland und der Schweiz, und in italienischer Sprache, erschienen. Jede der Falschmeldungen war auf mindestens 20 Webseiten zu finden.

Websites:

Scimex.org (Trust Score: 92.5/100)

An Australian site that is intended to help journalists cover and explain scientific research. Run by the Australian Science Media Centre and the Science Media Centre of New Zealand, it offers boiled-down explanations of research in original articles, a network of experts for journalists to contact, and images that can be used for stories, all for free.

Platformer.news (Trust Score: 92.5/100)

Headed by a veteran Silicon Valley reporter, the site covers the “intersection of tech and democracy” and issues and technology relevant to social media and tech platforms. The site says it will help users understand “the weird new future: internet culture, mega-platform grotesquerie, crypto conspiracies, deep forum lore, fringe politics, and other artifacts of what’s to come.”

RetractionWatch.com (Trust Score: 100/100)

The site serves as a de facto trust police of scientific journals. It is a blog and database dedicated to chronicling retractions of journal articles. Its mission is “tracking retractions as a window into the scientific process.” It’s produced by the Center for Scientific Integrity, a New York City-based 501(c)(3) nonprofit.

DailyYonder.com (Trust Score: 100/100)

Based in a town in rural eastern Kentucky, the site covers economic, political, and cultural issues relevant to rural America. Owned by the nonprofit Center for Rural Strategies, it covers housing crises hitting rural college students, tracks COVID-19 infection rates across statements, and lets users know about the issues affecting rural Americans ahead of the 2024 presidential race.

On3.com (Trust Score: 87.5/100)

The site covers the wickedly competitive recruiting of high school athletes, and new college rules on “Name, Image, Likeness” (NIL) that allow outside payments to athletes. It is similar to two strong competitors, Rivals and 247Sports, with typical headlines “Crash Bandicoot, Activision ink six athletes to NIL deals,” “Koren Johnson, 2022 four-star, commits to Washington,” “Meet Azzi Fudd, the next big thing in women’s basketball — and in NIL.” If you want to know why a quarterback at Duke leaves for Notre Dame, or a University of Michigan basketball star splits for Kansas, the answer is now simple: follow the money.

Podcasts (NewsGuard podcast Trust Scores are out of 10):

Advisory Opinions (Trust Score: 10/10)

A sharp podcast from two conservative lawyers-turned-political and cultural analysts: David French, a New York Times columnist, and Sarah Isgur, a former Justice Department spokesperson during the Trump administration. The hosts assess legal, cultural, and media developments, and are critical of both the left and right. They even heralded the ACLU, a frequent target for the right, for deciding to defend the National Rifle Association in a free-speech case against the New York Department of Financial Regulation.

Drilled (Trust Score: 10/10)

A left-leaning, anti-fossil fuels podcast that offers solid reporting on corporate and political factors that it argues contribute to climate change. It offers multiple viewpoints but tends to rebut critics of climate change, or what it calls “climate accountability.” It’s hosted by environmental journalist Amy Westervelt, who has won honors, including an Edward R. Murrow Award for investigative reporting. A typical episode covers the potential environmental impact of deep-sea mining, which has been performed experimentally on deep ocean floors.

Manifest Space with Morgan Brennan (Trust Score: 10/10)

A weekly podcast in which the CNBC anchor Morgan Brennan covers the latest happenings in space exploration. Brennan discusses significant issues, such as the use of spy satellites and the militarization of space, and interviews industry leaders.