09/11/2020
Soziale Medien und digitale Plattformen sagen, dass sie mit der Flut von Falschinformationen nicht mithalten können. Jetzt können sie es.
Die neue Zusammenarbeit von NewsGuard – via NewsGuards Misinformation Fingerprints ™ und Blackbird.AI zeigt, wie menschliche Intelligenz gekoppelt mit maschinellem Lernen schnell wichtige Falschinformationen und irreführende Narrative über eine riesige Menge von Inhalten erkennen und eindämmen kann.
(30. Oktober, 2020—New York City) Angesichts der schnellen Verbreitung von Hoaxes und Falschinformationen über das neuartige Coronavirus und andere Themen kämpfen die großen digitalen Plattformen damit, ihre eigenen Richtlinien und Strategien gegen solche Falschmeldungen durchzusetzen. Dabei sind sie oft nicht in der Lage, mit neuen und sich entwickelnden Narrativen Schritt zu halten. Folglich sind Entscheidungen zur Eindämmung daher oft inkonsistent und kommen zu spät, um die Probleme effektiv zu lösen.
Dieses Problem scheint nun so gut wie gelöst, wie ein Experiment von NewsGuard und Blackbird.AI zeigt. Dieselben Techniken, die NewsGuard und Blackbird.AI in einem gemeinsamen Experiment anwendeten, könnten digitale Plattformen in die Lage versetzen, Falschinformationen nahezu in Echtzeit und über eine enorme Menge von Inhalten hinweg zu identifizieren.
Das Experiment stützt sich auf die Einträge in NewsGuards “Misinformation Fingerprints™” – ein ständig aktualisierter, detaillierter Datensatz mit einzigartigen Identifikatoren für alle aktuellen Online-Falschinformationen. Die Identifikatoren wurden aus NewsGuards Analysen und Bewertungen zur Glaubwürdigkeit und Transparenz von Tausenden von Nachrichten- und Informationsseiten weltweit abgeleitet. Die Einträge aus diesem einzigartigen, maschinenlesbaren Katalog an Falschinformationen dienten als Grundlage, um Blackbirds Algorithmen für Machine Learning und Natural Language Processing zu trainieren. So versuchten die Unternehmen in dem Experiment zu beweisen, dass es anhand der Misinformation Fingerprints von NewsGuard und den KI-Tools von Blackbird möglich ist, die Inhalte auf Plattformen und im Internet zu identifizieren, die mit den von NewsGuard katalogisierten spezifischen Falschbehauptungen übereinstimmen.
Das Experiment fokussierte auf zwei falsche Behauptungen über das neuartige Coronavirus: 1) dass die Grippeimpfung das Ansteckungsrisiko von COVID-19 erhöht, und 2) dass Gesichtsmasken einen hohen Kohlendioxidüberschuss verursachen, auch Hyperkapnie genannt. Die Misinformation Fingerprints von NewsGuard lieferten zu diesen zwei Behauptungen zahlreiche Daten, darunter detaillierte Beschreibungen und Variationen der Aussagen, Beispiele für Inhalte mit diesen Falschbehauptungen sowie zugehörige Suchbegriffe, Schlagwörter und Hashtags. Zusätzlich wurde ein transparenter und gut belegter Faktencheck der Falschmeldungen mit Links zu glaubwürdigen Quellen bereitgestellt. Auf diese Weise war Blackbirds KI-System in der Lage, eine Vielzahl von Beiträgen, Videos und Artikeln zu identifizieren – sowohl über verschiedene Plattformen hinweg als auch im Internet allgemein –, die den beiden im Experiment verwendeten Falschbehauptungen entsprachen.
Wenn sie in großem Maßstab angewandt werden, könnten dieselben Techniken Plattformen in die Lage versetzen, falsche Informationen nahezu in Echtzeit über eine riesige Menge von Inhalten zu identifizieren. Mithilfe des Systems könnten Plattformen auch automatisiert einzelne Behauptungen widerlegen. Dazu könnten sie genau zu dem Zeitpunkt, an dem ein Nutzer die Behauptung zum ersten Mal in einem Social-Media-Feed oder einem Suchergebnis sieht, entsprechende Informationen, die die Behauptung widerlegen, anzeigen. Der bereits gelieferte Debunk von NewsGuard kann dazu verwendet werden.
“Derzeit sehen wir, wie die Plattformen entweder gegen Inhalte vorgehen, die Mythen enthalten, die vor Wochen oder sogar Monaten in Umlauf gebracht wurden und nicht mehr relevant sind – oder, was wohl noch schlimmer ist, ihre Richtlinien inkonsequent durchsetzen und das Vertrauen der Nutzer untergraben. Dabei verwenden sie in der Regel vage Warnhinweise oder zensieren sogar Behauptungen, anstatt verbindliche, konkrete Informationen über diese Hoaxes zu liefern”, sagte NewsGuard-Co-CEO Gordon Crovitz. “Mit unseren ständig aktualisierten Misinformation Fingerprints zu den häufigsten Falschbehauptungen, kombiniert mit Blackbirds leistungsstarken KI-Fähigkeiten, könnten Plattformen diesen Herausforderungen viel effektiver begegnen”.
Die Ergebnisse des Experiments zeigen die Grenzen der bisherigen Strategien der Plattformen auf. Weit verbreitete Inhalte, die offenbar gegen die Corona-Richtlinien der Plattformen verstoßen, waren während des Experiments weiterhin online verfügbar. Und das ohne jegliche Faktenchecks oder Warnungen durch die Plattformen. So tauchte zum Beispiel ein Posting von einem Twitter-Account mit mehr als 97.000 Followern auf, in dem behauptet wurde, dass die Grippeimpfung das Ansteckungsrisiko von COVID-19 erhöhen. Der Beitrag hatte über 800 Retweets und 821 Likes erhalten und wurde weder überprüft noch entsprechend gekennzeichnet.
Auf YouTube fand das System ein Video des Accounts von Children’s Health Defense, einer prominenten Gruppierung von Impfgegnern mit mehr als 24.000 YouTube-Abonnenten. Das Video enthielt denselben Hoax und stellte zudem eine Aussage des US-amerikanischen Immunologe Dr. Anthony Fauci in Frage, in der er die Amerikaner auffordert, sich gegen Grippe impfen zu lassen. YouTube war weder gegen das Video noch gegen den Account vorgegangen, auf dem bereits in der Vergangenheit zahlreiche Unwahrheiten veröffentlicht worden waren.
“Die riesigen Mengen an Informationen, die jeden Tag generiert werden, in Verbindung mit dem exponentiellen Wachstum von Desinformation, zeigen: Plattformen brauchen skalierbare, präzisere Lösungen. Diese müssen darauf ausgerichtet sein, gefährliche Falschmeldungen und Verschwörungsnarrative frühzeitig zu erkennen, bevor sie aufgegriffen und sich weit verbreiten können”, sagte Wasim Khaled, CEO von Blackbird.AI. “Dieses Experiment hat die Leistungsfähigkeit unserer Technologie demonstriert – insbesondere in Kombination mit den Misinformation Fingerprints von NewsGuard als Basisdaten, die zu einer leistungsfähigen und skalierbaren Schnittstelle zwischen Mensch und Maschine führen. Mit dieser Schnittstelle können die Geschwindigkeit, das Ausmaß und die Komplexität von Informationsstörungen bewältigt werden”.
Der Bericht mit Erläuterungen zum Experiment, zur Methodik und den Ergebnisse ist hier verfügbar.
Über NewsGuard
NewsGuard wurde im März 2018 von dem preisgekrönten Journalisten und Medienunternehmer Steven Brill und dem ehemaligen Wall Street Journal-Verleger Gordon Crovitz ins Leben gerufen. Das Unternehmen bietet Glaubwürdigkeits-Ratings und liefert detaillierte Bewertungen für Tausende von Nachrichten- und Informations-Webseiten. NewsGuard hat alle Seiten bewertet, deren Inhalte für 95% des Social-Media-Engagements in den USA, Großbritannien, Deutschland, Frankreich und Italien verantwortlich sind. Zu den NewsGuard-Produkten gehören NewsGuard, HealthGuard und BrandGuard. Diese drei zusammen mit NewsGuards Misinformation Fingerprints-Datenbank aller bekannter Mythen, unterstützen Anbieter dabei die Brand Safety ihrer Marke zu gewährleisten.
NewsGuard bewertet jede Webseite anhand von neun grundlegenden journalistischen Kriterien. NewsGuard gewichtet jedes Kriterium anhand einer Punktzahl; für weniger als 60 von 100 Punkten gibt es die Bewertung „Rot“, für 60 und mehr ein „Grün“ – was bedeutet, dass die Webseite im Allgemeinen zuverlässig ist.
Die Bewertungen und Labels von NewsGuard können durch Anbieter von Internetdiensten, Browsern, Nachrichtenaggregatoren, Social Media-Plattformen und Suchmaschinen lizenziert werden, um ihren Benutzern die Informationen von NewsGuard zur Verfügung zu stellen. Diese Bewertungen werden den Verbrauchern über eine Browser-Erweiterung zur Verfügung gestellt, die in Chrome, Safari, Edge und Firefox verwendbar ist, sowie auf mobilen Geräten über NewsGuards iOS- und Android-Apps und über den mobilen Edge-Browser. Hunderte von Bibliotheken weltweit nutzen die kostenlose Browser-Erweiterung von NewsGuard zur Unterstützung von Medienkompetenz auf ihren öffentlich zugänglichen Computern. Damit bieten sie ihren Besuchern mehr Kontext für die Nachrichten im Netz. Weitere Informationen, auch zum Herunterladen der Browser-Erweiterung und des Bewertungsverfahrens, finden Sie unter newsguardtech.com/de/.
Über Blackbird.AI
Blackbird wurde von einem multidisziplinären Team von Unternehmern, Ingenieuren und nationalen Sicherheitsexperten mit einem gemeinsamen Interesse an der Bekämpfung von Des- und Falschinformation gegründet. Die Technologie von Blackbird macht es Regierungen, Plattformen und großen Unternehmen in den USA möglich, die Treiber und Auswirkungen neu entstehender und potenziell schädlicher Narrativen und Kampagnen zu entlarven.
Blackbirds Constellation Engine™ hat die einzigartige Fähigkeit, die Merkmale von Narrativen aufzuspüren, die als Teil einer gezielten Desinformationsagenda manipulativ aufbereitet werden. Der Blackbird Risk Index (BRI) berücksichtigt Manipulation, Netzwerktopologie, Benutzerverhalten, Kontextanalyse, toxische Sprache und Bot-ähnliche Aktivität. Durch die Erfassung von anomalen Signalen in Social Media, News und Web wird automatisierte Narrative Intelligence generiert.
Indem Blackbird es seinen Kunden ermöglicht, finanzielle, rufschädigende und sogar gesellschaftliche Risiken in völlig neuen Dimensionen zu verstehen, möchte das Unternehmen Ordnung in das gestörte digitale Ökosystem bringen.
Kontakte: NewsGuard
- Steven Brill, Co-CEO, steven.brill@newsguardtech.com, +1 212-332-6301
- Gordon Crovitz, Co-CEO, gordon.crovitz@newsguardtech.com, +1 212-332-6407
- Matt Skibinski, General Manager, matt.skibinski@newsguardtech.com, +1 973.818.4698
Kontakte: Blackbird.AI
- Wasim Khaled, CEO, @WasimKhal
- Brooke Greenwald, Media Relations, brooke@blackbird.ai, +1 240-370-7036