Misinformation Monitor: November 2021

Ein Jahr danach: COVID-19-Falschinformationen

Facebook und Twitter ignorieren Desinformations-Superspreader

Von Alex Cadier
Zusätzliche Recherchen von
Melissa Goldin, Chine Labbé, Kendrick McDonaldVirginia Padovese und Marie Richter

Ein Jahr später ignorieren Facebook und Twitter weiterhin Warnungen vor Dutzenden Desinformationsprofilen – obwohl sie wissen, dass sich über diese COVID-19-Fehlinformationen verbreiten. Einige der Konten haben in der Zwischenzeit sogar ihre Reichweite gesteigert.

Hinweis der Redaktion: Seit Februar 2024 veröffentlicht NewsGuard statt dem Misinformation Monitor nun Reality Check, einem englischen wöchentlichen Newsletter über Fehlinformationen und Nachrichtenmedien im Internet. Erfahren Sie mehr und abonnieren Sie ihn hier auf Substack.

Auf der Facebook-Seite der Website WakingTimes.com – die falsche Behauptungen zu Gesundheit und Wissenschaft veröffentlicht – wurde ein Artikel geteilt, in dem fälschlicherweise behauptet wird, die Zahl der COVID-19-Fälle und -Todesfälle sei überhöht. (Screenshot via NewsGuard)

Die großen Plattformen sind im Kampf gegen Desinformationen in der Pflicht. Doch Facebook und Twitter haben es versäumt, ihre Nutzerinnen und Nutzer vor 43 irreführenden Konten zu schützen. Diese verbreiten nach wie vor gefährliche COVID-19-Falschinformationen, obwohl NewsGuard sie den Plattformen bereits im vergangenen Jahr gemeldet hat. In weiteren Fällen blieben die Warnungen ohne Konsequenz: Gegen mehr als die Hälfte der 85 Konten, die NewsGuard zu Beginn der Pandemie gemeldet hatte, wurden keine sichtbaren Maßnahmen ergriffen. Sie wurden weder entfernt, noch verlinkten die Plattformen auf Faktenchecks und Richtigstellungen. Bei fast einem Viertel der Konten stieg die Zahl der Follower oder Likes sogar an – um mehr als eine Millionen.

Die Zahlen belegen: In beinah eineinhalb Jahren blieben die Bemühungen der Plattformen gegen die sogenannte Infodemie weitgehend ineffizient.  Ihr Vorgehen erscheint nur halbherzig – trotz der Schäden durch Desinformationen. So erklärt sich, warum Gesetzgeber und Regulierer immer weniger auf freiwillige Verpflichtungen vertrauen. Sie diskutieren zunehmend alternative Ansätze, um die Betreiber in die Pflicht zu nehmen. 

Im April 2020 veröffentlichte NewsGuard vier Berichte über „Superspreader“ auf Facebook und Twitter in den Vereinigten Staaten und Europa. Die Berichte identifizierten 85 Konten und Seiten auf den beiden Plattformen, die eindeutig falsche Informationen im Zusammenhang mit der COVID-19-Pandemie verbreitet hatten.

Facebook und Twitter wurden auf die NewsGuard-Veröffentlichung aufmerksam gemacht und kommentierten sie in Presseberichten. Im November 2021 überprüfte NewsGuard, ob auf die Worte Taten folgten. Doch 43 der gemeldeten Desinformations-Accounts waren nach wie vor aktiv. 19 von ihnen hatten bei Likes oder Followern zugelegt.

FreieWelt.net, a site run by a nonprofit founded by Beatrix von Storch, deputy federal spokeswoman of Germany’s major far-right AfD party, is one of many German news sites spreading false and misleading claims about the Green party. (Screenshot via NewsGuard)

Unterschiede in den USA und Frankreich

Der Vergleich der beiden Plattformen ist aufschlussreich: NewsGuard hatte im vergangenen Jahr bei Twitter 26 und bei Facebook 59 Konten gemeldet. Zuletzt war jeweils noch rund die Hälfte aktiv. Unterschiede zeigten sich bei der Entwicklung der Followerzahlen: Auf den verbliebenen Twitter-Konten stieg sie deutlich mehr (durchschnittlich 23,7 Prozent) als auf den noch aktiven Facebook-Seiten (durchschnittlich 3,9 Prozent).

Einzelne Accounts haben sich positiv entwickelt: Fünf Facebook- und ein Twitter-Account hatte NewsGuard im April 2020 noch als Desinfomationsseiten entlarvt. Doch nach der Veröffentlichung des Berichts haben sie keine COVID-19-Falschinformationen mehr verbreitet. Daher wurden sie in der erneuten Analyse nicht berücksichtigt.

Die Reaktionen der beiden Plattformen unterschieden sich auch je nach Herkunftsland. Twitter entfernte mehr als die Hälfte der markierten Konten in den USA, während alle französischen Konten bis auf eines weiterhin aktiv waren. Ähnlich sieht es bei Facebook aus: Das Unternehmen entfernte in den USA mit 38 Prozent die meisten der markierten Konten; in Frankreich waren es nur 17 Prozent. 

Mindestens neun der Facebook-Konten aus dem NewsGuard-Bericht vom April 2020 verbreiteten die falsche Behauptung, Vitamin C könne COVID-19 heilen. Von diesen neun Seiten wurden vier entfernt und fünf sind weiterhin aktiv. Die Facebook-Nutzer erhalten von der Plattform keinen Hinweis darauf, warum bestimmte Seiten Fehlinformationen verbreiten dürfen, während andere entfernt werden.

Diese Ergebnisse decken sich mit den Erkenntnissen aus zwei anderen aktuellen NewsGuard-Berichten. Der Veröffentlichung von Oktober 2021 zufolge haben 20 Facebook-Konten, -Seiten oder -Gruppen, die für COVID-19- oder Impf-Fehlinformationen bekannt sind, innerhalb eines Jahres 370.000 Follower hinzugewonnen. Der andere Bericht von September 2021 zeigte, dass die Video-Sharing-App TikTok Kindern Impfstoff-Fehlinformationen anzeigt. Die betroffenen Kinder folgten weder einschlägigen Konten noch nutzten sie gezielt die Suchfunktion.