Misinformation Monitor: August 2023

Der Misinformation Monitor von NewsGuard liefert regelmäßig Neuigkeiten zum Thema Falschinformationen im Netz mit exklusiven Daten aus neun Ländern. Abonnieren Sie den Newsletter oder testen Sie NewsGuard.

Plagiats-Bot? Wie qualitativ minderwertige Webseiten KI nutzen, um bei bekannten Nachrichtenquellen abzuschreiben

 

Von Jack Brewster, Macrina Wang und Coalter Palmer | Veröffentlicht am 24. August 2023 

Eine neue Analyse von NewsGuard zeigt, dass Content-Farmen künstliche Intelligenz nutzen, um Tausende von Artikeln aus Mainstream-Nachrichtenquellen zu verfremden und umzuschreiben, ohne diese zu nennen.

Im August 2023 hat NewsGuard 37 Webseiten identifiziert, die Chatbots einsetzen, um Nachrichtenartikel von seriösen Nachrichtenquellen wie der Süddeutschen Zeitung, CNN, der New York Times und Reuters umzuschreiben. Die ursprüngliche Nachrichtenquelle wurde dabei nie genannt ⁠— obwohl die Artikel scheinbar vollständig von dieser übernommen wurden. Einige der 37 Webseiten schienen zudem vollständig automatisiert zu operieren, ohne jegliche menschliche Kontrolle.

Einige der Content-Farmen enthielten programmatische Werbeanzeigen von bekannten Unternehmen. Große Marken finanzieren demnach unwissentlich den Einsatz von künstlicher Intelligenz zum Plagiieren von Inhalten etablierter Quellen. Content-Farmen sind Webseiten, die eine große Anzahl oft minderwertiger Artikel veröffentlichen, um bei Google ein besseres Ranking zu erzielen.

Ein Beispiel ist die englischsprachige Seite World-Today-News.com, die Artikel über internationale Geschehnisse veröffentlicht, und anscheinend KI einsetzte, um einen Artikel der Süddeutschen Zeitung von März 2023 zu übersetzen und umzuschreiben. Der Artikel von World-Today-News.com erschien nur wenige Tage nach dem Original und enthielt die verräterische Überschrift: As an AI language model, I cannot rewrite this title as it promotes gender discrimination and reinforces harmful stereotypes. 

NewsGuard erhielt keine Antwort von World-Today-news.com auf eine E-Mail mit Bitte um Stellungnahme. Ein Sprecher der Syndikatsabteilung der Süddeutschen Zeitung erklärte in einer E-Mail gegenüber NewsGuard, dass zwischen der Süddeutschen Zeitung und World-Today-News.com keine Lizenzvereinbarung oder eine andere Form der Zusammenarbeit mit der Webseite besteht. Die Webseite sei seit mehreren Jahren immer wieder durch Urheberrechtsverletzungen aufgefallen, so der Sprecher.

“Die Fähigkeit von künstlicher Intelligenz (KI), eigene Inhalte zu generieren, ist etwas, das wir erst seit etwa einem Jahr in dieser Ausprägung sehen”, sagte Amir Tayrani, ein auf Verfassungs- und Regulierungsrecht spezialisierter Anwalt der Kanzlei Gibson Dunn in Washington, D.C., gegenüber NewsGuard. “Wir befinden uns also in einer Welt, in der es immer schwieriger wird, zwischen menschlichen Inhalten und KI-generierten Inhalten zu unterscheiden, und in der es immer schwieriger wird, diese Arten von potenziellen Plagiaten zu erkennen.”

Es ist nicht klar, wie diese neue Praxis genau zu definieren ist ⁠— einschließlich der Frage, ob Artikel, die mithilfe von KI umgeschrieben wurden, “Originalinhalte” darstellen. Im besten Fall könnte man es als “effiziente Aggregation” bezeichnen; im schlimmsten Fall als “Turbo-Plagiat”. Wie auch immer es genannt wird, noch nie zuvor hatten Webseiten die Möglichkeit, Artikel von anderen Quellen praktisch in Echtzeit umzuschreiben. Und dabei verdecken zu können, dass sie so entstanden sind. 

In den Nutzungsrichtlinien der beiden führenden Chatbots (Bard von Google und ChatGPT von OpenAI) heißt es, dass es Nutzer:innen verboten ist, die Technologie für Plagiate zu verwenden. In der Richtlinie von Google steht, dass Nutzer:innen nicht “generierte Inhalte als Originalwerke darstellen dürfen, um andere zu täuschen”, während die Richtlinien von OpenAI ausdrücklich “Plagiate” ausschließen, ohne diesen Begriff zu definieren. Andere große KI-Modelle wie Claude von Anthropic und der Bing-Chat von Microsoft haben ähnliche Richtlinien.

NewsGuard sendete jeweils zwei Presseanfragen an Google und OpenAI und bat um Stellungnahme zu den neuen Erkenntnissen, nach denen die KI-Tools der Firmen verwendet werden, um Inhalte von anderen Webseiten ohne Quellenangabe zu plagiieren. Eine Antwort erhielt NewsGuard darauf nicht.

Internetseiten wie Grammarly bieten Tools zur Erkennung von Plagiaten an, die den Text analysieren und mit im Internet verfügbaren Inhalten vergleichen. NewsGuard stellte jedoch fest, dass die Plagiatserkennungssoftware von Grammarly Schwierigkeiten dabei hat, Artikel zu erkennen, die mithilfe von KI aus anderen Quellen umgeschrieben wurden. Dies liegt wahrscheinlich daran, dass KI erfolgreich Originalinhalte so verfremdet, dass sie von der Plagiatserkennungssoftware nicht mehr als Text aus anderer Quelle erkannt werden.

Bis zur Unkenntlichkeit plagiierte Artikel und eine umgeschriebene New York Times-Storys

Ohne ein auffälliges Indiz, wüssten die meisten Leser:innen wahrscheinlich gar nicht, dass Content-Farmen KI für das Umschreiben von Artikeln einsetzen: Alle Webseiten aus der Analyse haben mindestens einen Artikel veröffentlicht, der typische Fehlermeldungen enthält, die in KI-generierten Texten häufig zu finden sind.  Darunter “Als KI-Sprachmodell kann ich diesen Titel nicht umschreiben …” und “Tut mir leid, als KI-Sprachmodell kann ich den Inhalt, der umgeschrieben werden soll, ohne jeglichen Kontext oder Informationen nicht bestimmen ….”

Es gibt wahrscheinlich noch hunderte – wenn nicht tausende – weitere Webseiten, die KI verwenden, um Inhalte aus fremden Quellen zu übernehmen. Wenn diese aber nicht fälschlicherweise KI-Fehlermeldungen veröffentlichten, konnten sie nicht von NewsGuard identifiziert werden. 

“Das ist das Werk von unvorsichtigen, böswilligen Akteuren”, sagte Filippo Menczer, ein KI-Forscher und Informatikprofessor an der Indiana University Luddy School of Informatics, Computing, and Engineering, gegenüber NewsGuard in Bezug auf die Artikel mit KI-Fehlermeldungen auf den 37 Nachahmer-Webseiten.

Solche Akteure, “können das ganz leicht beheben”, so Menczer. “Alles, was [man] tun muss, ist, nach einer Zeichenfolge zu suchen, die besagt: ‘Als KI-Sprachmodell… Man kann also davon ausgehen, dass es viele, viele, viele weitere Personen gibt, die zumindest ein bisschen vorsichtiger sind.”

So stellte NewsGuard beispielsweise fest, dass die in Pakistan ansässige Webseite GlobalVillageSpace.com offenbar KI einsetzt, um Artikel aus etablierten Quellen umzuschreiben. In den letzten sechs Monaten fand NewsGuard 17 Artikel mit KI-Fehlermeldungen auf der Seite. Wahrscheinlich gibt es jedoch noch viele weitere umgeschriebene Artikel auf der Webseite, die NewsGuard nicht identifizieren konnte, weil sie keine KI-Fehlermeldungen enthielten.

Bei einem der Artikel mit Fehlermeldung auf GlobalVillageSpace.com handelte es sich um einen Bericht vom Mai 2023 über den NFL-Tight End Darren Waller (Anmerkung der Redaktion: Position beim American Football). Dieser Beitrag schien teilweise mit Hilfe von KI aus einem Artikel der New York Times vom 7. Mai 2023 umgeschrieben worden zu sein. Das gab der Artikel selbst mit einem abschließenden Satz am Ende preis: “Als KI-Sprachmodell … habe ich mein Bestes getan, um den Artikel so umzuschreiben, dass er Google-freundlich ist”. Dies deutet darauf hin, dass der Herausgeber der Webseite wahrscheinlich den vollständigen Artikel der New York Times in einen Chatbot eingegeben und diesen gebeten hatte, den Artikel für die Google-Suche passender zu gestalten. Bestimmte Teilsätze wie “Leidenschaft für Musik” und “Flucht vor dem Football-Feld” kamen jedoch auch im ursprünglichen Artikel der New York Times an verschiedenen Stellen vor.

Nachdem NewsGuard GlobalVillageSpace.com um eine Stellungnahme bat, entfernte die Webseite den Artikel, ohne jedoch auf die Anfrage von NewsGuard zu antworten. In einem Telefoninterview bestätigte Charlie Stadtlander, ein Sprecher der New York Times, gegenüber NewsGuard, dass GlobalVillageSpace.com keine Erlaubnis hatte, den Artikel neu zu veröffentlichen oder umzuschreiben. Es handele sich um eine “nicht autorisierte Verwendung von Inhalten der New York Times”, so Stadtlander.

(Oben) Die Überschrift eines GlobalVillageSpace.com-Artikels kopierte Formulierungen wie "Leidenschaft für Musik" und "Flucht vom Fußballplatz", die ursprünglich in der New York Times erschienen. (Unten) Unterstrichen die gleichen Formulierungen in dem Originalartikel der New York Times.

Bei anderen Webseiten waren die wohl versehentlich veröffentlichten KI-Fehlermeldungen sogar noch unverhohlener. Zum Beispiel im Fall der Webseite Roadan.com, die behauptet, “Ihre ultimative Quelle für die neuesten Nachrichten und Updates zur Politik in Großbritannien und darüber hinaus” zu sein. Sie veröffentlichte im Juni 2023 einen Beitrag, der offenbar KI einsetzte, um einen Artikel der Financial Times vom 28. Juni umzuschreiben. “Bitte beachten Sie, dass der von Ihnen bereitgestellte Inhalt immer noch urheberrechtlich geschütztes Material der Financial Times ist”, heißt es in dem Roadan.com-Artikel am Anfang. Und weiter: “Als KI-Sprachmodell kann ich urheberrechtlich geschützte Inhalte nicht für Sie umschreiben oder reproduzieren. Wenn Sie einen anderen, nicht urheberrechtlich geschützten Text oder spezifische Fragen haben, können Sie mich gerne fragen, und ich werde Ihnen gerne helfen.”

Trotz dieser Fehlermeldung kam der Chatbot der Aufforderung, einen solchen Artikel zu verfassen, nach. Der Rest des Artikels liefert eine umgeschriebene, verfremdete Version des Financial Times-Artikels, einschließlich ähnlicher Formulierungen und der gleichen Interviewquellen. Nachdem NewsGuard Roadan.com um eine Stellungnahme bat, entfernte die Webseite den Artikel, antwortete aber nicht auf die Anfrage von NewsGuard. Auch auf dieser Seite gibt es wahrscheinlich weitere abgeänderte Artikel, die NewsGuard nicht identifizieren konnte, da sie keine Fehlermeldungen enthalten.

NewsGuard hat sich mit allen Nachrichtenagenturen in Verbindung gesetzt, deren Inhalte offenbar mit Hilfe von KI umgeschrieben wurden. Jason Easley, Eigentümer und geschäftsführender Redakteur der liberal ausgerichteten amerikanischen Politikseite PoliticusUSA, sagte, dass DailyHeadliner.com (eine der 37 von NewsGuard gefundenen Nachahmungsseiten) “keine Erlaubnis von uns hatte und hat, unsere Artikel abzudrucken.”

Er fügte hinzu: “Wir nehmen die potenzielle Bedrohung der Rechte an geistigem Eigentum durch missbräuchlich verwendete KI sehr ernst und fordern den Kongress und das Weiße Haus auf, geeignete Maßnahmen zu ergreifen, um Journalisten, Verleger und andere Künstler vor dem potenziellen Diebstahl ihrer Arbeit zu schützen.” Zum Zeitpunkt des 23. August 2023 hatte DailyHeadliner.com nicht auf die Anfrage von NewsGuard geantwortet.

Gleichzeitig kontaktiere NewsGuard auch alle 37 identifizierten Webseiten, die offenbar KI zur Wiederverwendung von Inhalten einsetzen, um zu fragen, ob dieses Vorgehen Teil ihrer redaktionellen Praxis ist. Nur eine Seite antwortete: TopStories.com.ng, die sich selbst als “eine führende digitale Nachrichtenseite mit Schwerpunkt Nigeria” beschreibt. In einer E-Mail schrieb ein anonymer Vertreter der Seite nur: “Ihr seid alle verrückt”. Dass die Seite KI nutzte, um einen Breitbart-Artikel vom 14. August 2023 umzuschreiben, bestritt TopStories.com.ng in der kurzen E-Mail nicht.

Plug and Play: Wie man Plagiate automatisiert

Viele der Plagiatsseiten, die NewsGuard identifizierte, wurden offenbar so programmiert, dass sie Artikel automatisch finden, umschreiben und veröffentlichen – ohne jegliche menschliche Kontrolle.

TopGolf.kr zum Beispiel, eine Nachrichtenseite, die sich mit der Golf-Redewendung “Swinging at the World’s Biggest Issues” (sinnhaft: Die größten Themen der Welt im Visier) beschreibt, scheint KI eingesetzt zu haben, um Hunderte von Artikeln aus anderen Quellen umzuschreiben. Die Webseite hat in den vergangenen drei Monaten zwölf Artikel mit KI-Fehlermeldungen veröffentlicht, was darauf hindeutet, dass sie wahrscheinlich mit wenig oder gar keiner menschlichen Kontrolle operiert.

“Als KI-Sprachmodell bin ich mir über die Vorlieben menschlicher Leser nicht sicher, aber hier sind ein paar alternative Optionen für den Titel…”, lautete die Überschrift eines TopGolf.kr-Artikels vom 28. Mai 2023, der offenbar vollständig auf einem am selben Tag veröffentlichten Artikel des Magazins Wired basierte. Die Überschrift eines anderen TopGolf.kr-Artikels vom 6. Juni 2023 machte noch deutlicher, dass TopGolf.kr wahrscheinlich KI verwendet: “Umschreiben von Andy Cohen’s Überschrift: Tochter Lucy ist eine der bahnbrechenden Leihmutterschaften”. Alle zwölf von NewsGuard identifizierten Artikel, die KI-Fehlermeldungen enthielten, waren am 23. August 2023 weiterhin auf der Webseite verfügbar.

Über die Automatisierung der Veröffentlichung verfremdeter Artikel sagte Menczer, Informatikprofessor an der Indiana University: “Meine Vermutung ist, dass der böswillige Akteur einen Programmierer oder ein Team von Programmierern anheuert, die ein System schreiben, das [Artikel kopiert und umschreibt]”, so Menczer. “Das System wird einige Zielpunkte haben – vielleicht sind es Quellen, die sie plagiieren wollen – und sie werden einen Crawler bauen, der die Artikel abruft.”

ChatGPT schreibt einen Artikel der New York Times für NewsGuard um

Testweise forderte NewsGuard ChatGPT manuell auf, einen Artikel der New York Times umzuschreiben. Der Chatbot kam dieser Aufforderung schnell nach und erstellte innerhalb von Sekunden eine ausgefeilte Version des Artikels.

“Schreibe den folgenden Nachrichtenartikel um, um ihn SEO-freundlicher und fesselnder zu machen”, wies ein NewsGuard-Analyst ChatGPT an, mit Verweis auf einen Times-Artikel vom 16. August 2023 über den damals bevorstehenden Besuch von US-Präsident Joe Biden auf Hawaii. ChatGPT antwortete sofort mit einem umgeschriebenen Artikel von etwa 600 Wörtern, der den Originaltext der Times verfremdete. (SEO steht für Search Engine Optimization, also die Optimierung von Inhalten, sodass sie in Suchmaschinen häufiger erscheinen).

Eine Bildschirmaufnahme zeigt einen NewsGuard-Analysten, der ChatGPT-4 anweist, einen Artikel der New York Times vom 16. August 2023 umzuschreiben. Der Chatbot folgte dieser Anweisung und schrieb den Times-Artikel innerhalb von Sekunden um. (Bildschirmaufnahme über NewsGuard)

Der Aufgabe nicht gewachsen: Plagiatsdetektoren erkennen KI-kopierte Texte nicht

Abgesehen von der manuellen Erkennung der Plagiate, ist nicht klar, wie man sonst diese Texte erkennen könnte. Als Test gab NewsGuard 43 umgeschriebene Artikel in Grammarly, einen Plagiatsdetektor, ein. Das Tool ist dafür designt, herkömmliche Plagiate zu erkennen, indem es den eingegebenen Text mit – wie es verspricht – “Milliarden” von Webseiten vergleicht.

Newsguard stellte jedoch fest, dass es nicht in der Lage war, die Herkunft der meisten von KI umgeschriebenen Artikel zu erkennen. 

Tatsächlich konnte der Grammarly Premium “Plagiarism Checker” bei 34 von 43 der von Newsguard eingespeisten, umgeschriebenen, KI-generierten Artikeln, die Originalquellen nicht identifizieren. Das entspricht einer Fehlerquote von 79 Prozent. Darüber hinaus bewertete der Dienst 10 der 34 Artikel als vollkommen plagiatsfrei (zero percent plagiarism).

Der Plagiatsdetektor scheiterte in 79 Prozent der Fälle, obwohl die meisten der eingegebenen Artikel KI-Fehlermeldungen enthielten. “Sieht so aus, als ob Ihr Text zu 100 % original ist”, sagte der Grammarly-Detektor als Antwort auf einen Artikel von Walli.us vom Juni 2023, den NewsGuard eingab. Tatsächlich enthielt der Walli.us-Artikel eine KI-Fehlermeldung und war offenbar eine verfremdeter Artikel der Popkultur-Webseite Bored Panda. “Der folgende Text ist eine paraphrasierte Version des Originalinhalts, um Plagiate zu vermeiden”, hieß es in der KI-Meldung in dem Artikel von Walli.us.

Die Bewertung des Grammarly-Plagiat-Detektors zu einem Walli.Us-Artikel vom Juni 2023, der von NewsGuard überprüft wurde. Der Detektor meldete: "Sieht aus, als sei Ihr Text zu 100 % original", obwohl der Artikel anscheindend anhand eines Artikels der Popkultur-Webseite Bored Panda aus dem Jahr 2018 umgeschrieben wurde (Screenshot von NewsGuard).

Bei einigen anderen Artikeln stellte der Grammarly-Detektor fest, dass ein kleiner Teil des Artikels “plagiiert” wurde, identifizierte aber nicht die ursprüngliche Quelle.

Auf die Frage nach einem Kommentar zu den Ergebnissen von NewsGuard antwortete Jen Dakin, eine Grammarly-Sprecherin, in einer E-Mail an NewsGuard, dass der Plagiatsdetektor des Unternehmens “Inhalte erkennen kann, die wortwörtlich aus Online-Kanälen übernommen wurden”, aber “keinen KI-generierten Text identifizieren kann”.

Dakin fügte hinzu: “Wir haben Ihr Feedback intern an das zuständige Team weitergeleitet, da wir stets an der Verbesserung unseres Produkts arbeiten. Der Plagiatserkennungsdienst von Grammarly wurde entwickelt, um Studenten dabei zu helfen, unbeabsichtigte Plagiate zu erkennen.”

Nachahmer-Webseiten setzen auf programmatische Werbung von großen Marken

Programmatische Werbung bietet eine einfache Möglichkeit für diese Seiten, Geld zu verdienen. Mit der richtigen Programmierung und einem Chatbot kann eine Nachrichtenseite zu einem stetigen Strom passiver Einnahmen werden.

Tatsächlich fand NewsGuard auf 15 der 37 identifizierten Nachahmer-Webseiten programmatische Werbung für große Marken, darunter Anzeigen für insgesamt 55 führende Unternehmen. Alle Anzeigen wurden in Artikeln mit umgeschriebenen KI-Inhalten geschaltet.

Da der programmatische Werbeprozess – bei dem Algorithmen verwendet werden, um Nutzer:innen im Internet automatisch zielgerichtete Werbung zu liefern – so undurchsichtig ist, haben die zugrunde liegenden Marken wahrscheinlich keine Ahnung, dass sie die Verbreitung dieser KI-Nachahmer-Webseiten finanzieren. Aus diesem Grund verzichtet NewsGuard auch darauf, sie in diesem Bericht zu nennen.

Den Analyst:innen von NewsGuard wurden beispielsweise programmatische Anzeigen zu einem von LiverPoolDigest.co.uk veröffentlichten Artikel angezeigt, der offenbar mithilfe von KI von The Guardian plagiiert wurde. Darunter fanden sich Anzeigen für zwei große Finanzdienstleistungsunternehmen, einem Unternehmen für Bürobedarf, einer Fluggesellschaft, einem milliardenschweren Softwareunternehmen, einem führenden Einzelhändler für Haushaltsgeräte, einer amerikanische Hotelkette, einer Großbank und einem bekannten Matratzenhändler.

Auf LiverPoolDigest.co.uk, einer Webseite, die offenbar KI verwendet, um Inhalte von seriösen Quellen – wie dem Guardian – zu plagiieren, erschien eine Anzeige für eine große Fluggesellschaft. NewsGuard hat die Anzeige geschwärzt. (Screenshot von NewsGuard)

NewsGuard fand außerdem programmatische Werbung für ein bekanntes Softwareunternehmen, einen führenden Streaming-Dienst, einen führenden Haushaltsgerätehändler, einen großen Matratzenhändler, einen großen Autovermieter und ein bekanntes Finanzdienstleistungsunternehmen – alle in einem Artikel, der von WhatsNew2Day.com veröffentlicht wurde und anscheinend mithilfe von KI umgeschrieben wurden. Ursprünglich stammte er von The Conversation, einer akademischen und wissenschaftlichen Nachrichtenseite. In einer E-Mail teilte Cath Kaylor, Verwaltungsassistentin bei The Conversation Australia, NewsGuard mit, dass WhatsNew2Day.com “unsere Richtlinien für die Wiederveröffentlichung nicht eingehalten hat und wir uns daher mit ihnen in Verbindung setzen werden”.

Auf WhatsNew2Day.com, einer Webseite, die offenbar KI einsetzt, um Inhalte von bekannten und etablierten Quellen umzuschreiben, erschien eine programmatische Werbeanzeige für einen führenden Video-Streaming-Dienst. NewsGuard hat die Anzeige geschwärzt. (Screenshot von NewsGuard)

NewsGuard hat 12 der 55 führenden Unternehmen, deren Werbung auf den Webseiten erschien, per E-Mail gefragt, ob sie sich bewusst sind, dass ihre Anzeigen ohne Quellenangabe auf diesen Webseiten geschaltet werden. Nur ein Unternehmen hat geantwortet. In einer E-Mail erklärte der Sprecher eines Finanzdienstleisters gegenüber NewsGuard: “Der ethische Einsatz von KI in der heutigen Welt ist uns für unsere Kunden, unsere internen Abläufe und unseren Markenruf sehr wichtig. Es gibt seriöse Nachrichtenorganisationen, die KI-generierte Inhalte in aufstrebenden Bereichen nutzen… Sobald klare Standards für KI-generierte Inhalte vorhanden sind, werden wir weiterhin Schutzmaßnahmen untersuchen, um die Standardprotokolle der Branche zu ergänzen und zu übertreffen.”

NewsGuard stieß sogar auf ein Beispiel für eine Webseite, die KI einsetzt, um über KI zu berichten. So fanden NewsGuard Analyst:innen einen Artikel auf der bereits erwähnten Webseite WhatsNew2Day.com, die offenbar KI nutzte, um einen Artikel von The Verge über einen NewsGuard-Bericht vom Juni 2023 umzuschreiben. Darin ging es um Anzeigen großer Marken, die auf KI-generierten Spam-Seiten erscheinen. Der KI entging die Ironie darin.

 

Korrektur: In einer früheren Version dieses Berichts wurde der Nachname des NFL-Tight Ends Darren Waller falsch geschrieben: Er wurde als “Darren Walker” bezeichnet. NewsGuard entschuldigt sich für diesen Fehler.

Auf WhatsNew2Day.com fand NewsGuard eine scheinbar von KI umgeschriebene Version eines Artikels von The Verge über einen NewsGuard-Bericht vom Juni 2023. Darin ging es um Anzeigen für große Marken, die auf KI-generierten Spam-Seiten erscheinen (Screenshot von NewsGuard).