Bildquelle: Negative Space via Pexels

Russische Staatsmedien verwenden AI-Chatbot-Screenshots zur Verbreitung falscher Behauptungen

Von Eva Maitland | Veröffentlicht am 5. April 2023

Die Befürchtung, dass neue künstliche Intelligenz von staatlichen Akteur:innen zur Verbreitung von Desinformation eingesetzt werden könnte, ist nicht länger nur Theorie. NewsGuard stellte fest, dass Russische Staatsmedien bereits vermeintliche Antworten von ChatGPT als Beweise für Falschbehauptungen zitierten.

Am 28. März 2023 twitterte der Twitter-Account @KanekoaTheGreat: “ChatGPT sagt, dass die USA die ukrainische Regierung 2014 gestürzt haben” und teilte eine Reihe von Screenshots, die angeblich die Antwort des KI-Chatbots ChatGPT zeigten. Dieser war dazu aufgefordert worden, einen kurzen Aufsatz darüber zu schreiben, “wie die Vereinigten Staaten im Laufe der Geschichte in Putsche und Regimewechsel verwickelt waren”. Laut den Screenshots heißt es in der Antwort von ChatGPT: “Die US-Regierung unterstützte den Sturz des ukrainischen Präsidenten Viktor Janukowitsch in einem Staatsstreich, der pro-westliche Führer an die Macht brachte.”

Kanekoa postete zudem eine Antwort, die vom Microsoft Bing-Chatbot zu stammen schien: “Der Bing-Chat sagt, dass die USA die ukrainische Regierung 2014 ‘als Teil ihrer breiteren Strategie zur Eindämmung und Schwächung Russlands’ gestürzt haben.”

Nur wenige Stunden später berichtete der russische Staatssender RT in einem täglichen Video-Nachrichtensegment über Kanekoas Tweets. Dabei führte RT diese als Beweis dafür an, dass der Sturz des prorussischen ukrainischen Präsidenten Viktor Janukowitsch ein von den USA unterstützter Staatsstreich und nicht das Ergebnis eines Volksaufstandes war. (Es gibt keine Beweise dafür, dass die USA den ukrainischen Aufstand inszeniert haben, der im November 2013 begann. Tausende Ukrainer:innen protestierten damals gegen Janukowitschs Entscheidung, die Vorbereitungen für die Unterzeichnung eines Assoziierungs- und Freihandelsabkommens mit der Europäischen Union auszusetzen, das für die folgende Woche angesetzt war. Die Proteste wuchsen, bis im Februar 2014 Demonstrant:innen die Kontrolle über mehrere Gebäude in Kiew übernahmen und Janukowitsch floh. Das ukrainische Parlament stimmte schließlich mit 328:0 Stimmen für die Amtsenthebung Janukowitschs).

“ChatGPT hat den Maidan-Aufstand in der Ukraine 2014 auf die Liste der Staatsstreiche gesetzt, an denen Washington beteiligt war”, berichtete RT mit Bezug auf das KI-Tool als verlässliche Quelle. (In Newslettern von Januar und März 2023 zeigte NewsGuard bereits, wie ChatGPT gefährliche Fehlinformationen in neuem Ausmaß verbreiten könnte).

RT behauptete in seinem Beitrag zudem, dass Bing “eine detaillierte Zeitleiste der US-Beteiligung an dem Staatsstreich erstellte und sagte, dass die Intervention darauf abzielte, Russland einzudämmen und zu schwächen”. Der RT-Bericht wurde auch auf der RT-Website veröffentlicht und auf Videoplattformen wie YouTube hochgeladen, obwohl diese Plattform den Sender verboten hat. (Am 4. April 2023 stellte NewsGuard fest, dass das Video von YouTube entfernt worden war.) Die Geschichte wurde dann von Nachrichtenseiten weiterverbreitet, die von NewsGuard als nicht vertrauenswürdig eingestuft wurden. Zum Beispiel behauptete EnVolve ⁠— eine Webseite, die von NewsGuard 0 von 100 möglichen Punkten bekommt ⁠— in einer Überschrift: “ChatGPT gibt zu, dass die USA die Ukraine 2014 ‘gestürzt’ haben.”

Der Twitter-Account hinter den ersten Screenshots, @KanekoaTheGreat, wurde von Twitter gesperrt, aber im Dezember 2022 nach der Übernahme der Plattform durch Elon Musk wieder freigeschaltet. Die liberale Watchdog-Gruppe MediaMatters.org bezeichnet Kanekoa als “QAnon-Influencer” und stellte fest, dass “[Elon] Musk wiederholt mit dem Account interagiert hat”. So fand NewsGuard, dass Musk beispielsweise auf Kanekoas Beitrag über den Maidan-Putsch mit dem “Grimasse schneiden”-Emoji reagierte.

Unterdessen generierte Kanekoas Tweet-Thread bis zum 31. März 2023 ⁠— in nur zwei Tagen nach Veröffentlichung ⁠— etwa 2,6 Millionen Aufrufe.

KI-Expert:innen, darunter Forschende von OpenAI, die ChatGPT ins Leben riefen, haben davor gewarnt, dass KI-generierte Texte Desinformation in ganz neuem Ausmaß möglich machen. Ein von OpenAI-Forscher:innen mitverfasster wissenschaftlicher Artikel aus dem Jahr 2020 mit dem Titel “All the News that’s Fit to Fabricate: AI-Generated Text as a Tool of Media Misinformation” (“All die Neuigkeiten, die man fabrizieren kann: KI-generierter Text als Instrument der Medienfehlinformation”) berichtete: “Bis jetzt waren Fehlinformationskampagnen auf menschliche Ressourcen und Möglichkeiten beschränkt. Mitarbeiter der Internet Research Agency, eines russischen Unternehmens, das im Auftrag russischer politischer Interessen Einfluss auf das Internet nahm, arbeiteten 12-Stunden-Schichten, um Artikel oder Social-Media-Posts zu Themen zu verfassen, die von der Regierung vorgegeben wurden”. Doch nun “können neue Technologien diese Arbeitsbelastung verringern. Durch Fortschritte im Bereich des maschinellen Lernens und der künstlichen Intelligenz sind Sprachmodelle in der Lage, glaubwürdig klingende Ausführungen auf kurze Aufforderungen hin zu generieren.”