30/10/2020

Ecco come i social media possono far fronte alla disinformazione che circola in rete

Con il nuovo Misinformation Fingerprints™, NewsGuard e BlackBird.AI uniscono le proprie forze dimostrando che la fusione tra intelligenza umana e intelligenza artificiale può tracciare e ridurre rapidamente l’impatto della disinformazione online su una quantità enorme di contenuti.

30 ottobre 2020, New York – Con il rapido propagarsi della disinformazione online sul COVID-19 e su altri argomenti, le principali piattaforme faticano a far rispettare le proprie policy. I social media si trovano in difficoltà nel tenere il passo con le sempre nuove bufale che circolano in rete, e le loro azioni vengono intraprese in modo poco coordinato e spesso troppo tardi per fermare i problemi che intendono risolvere.

Sulla base dei risultati pubblicati oggi emersi da un recente esperimento condotto da NewsGuard e BlackBird.AI, la soluzione a questo problema potrebbe essere vicina. Applicate su larga scala, le stesse tecniche che NewsGuard e BlackBird AI hanno usato in questo test potrebbero consentire alle piattaforme di identificare le varie narrazioni di bufale e disinformazione quasi in tempo reale e su un enorme volume di contenuti.

L’esperimento ha testato il potenziale di combinare l’intelligenza umana con l’intelligenza artificiale per tracciare le narrazioni della disinformazione su larga scala. L’esperimento ha usato le voci del Misinformation Fingerprints™, un set di dati dettagliato e costantemente aggiornato di identificatori univoci per tutte le principali bufale e le narrative di disinformazione che si diffondono online, realizzato dai giornalisti di NewsGuard. Le voci di questo catalogo, unico nel suo genere e leggibile dall’intelligenza artificiale, sono state utilizzate come basi per gli algoritmi di Machine Learning e Natural Language Processing di BlackBird. In questo test, le due aziende hanno cercato di dimostrare che, a partire dalle impronte digitali di NewsGuard, gli strumenti di intelligenza artificiale di BlackBird potevano identificare i contenuti di varie piattaforme online e del web in generale che contenevano le false affermazioni catalogate da NewsGuard.

Il test si è concentrato su due false affermazioni sul COVID-19: quella che il vaccino antinfluenzale aumenta il rischio di COVID-19 e quella secondo cui le mascherine causano ipercapnia (condizione medica legata all’eccesso di anidride carbonica). Partendo dalle impronte digitali di NewsGuard (che includono dati come la descrizione di ogni bufala, le variazioni della bufala stessa, esempi di contenuti e termini di ricerca correlati, parole chiave e hashtag, nonché un debunking trasparente con riferimenti a fonti autorevoli), il sistema di intelligenza artificiale di BlackBird è stato in grado di identificare un’ampia gamma di post, video e articoli che corrispondevano alle due affermazioni utilizzate nel test, pubblicati sulle piattaforme e sul web, che avevano raggiunto un elevato numero di utenti.

Se applicate su larga scala, le stesse tecniche potrebbero consentire alle piattaforme di identificare narrazioni di disinformazione quasi in tempo reale su un enorme volume di contenuti. Grazie a questo sistema, le piattaforme potrebbero anche smascherare automaticamente ogni singola bufala accompagnadola da informazioni corrette esattamente nel momento in cui la bufala compare  online e gli utente la visualizzano per la prima volta, ad esempio in un feed di social media o in un risultato di ricerca.

“Oggi, vediamo le piattaforme intraprendere azioni contro i contenuti falsi che sono diventati virali, settimane o addirittura mesi prima o, ancora peggio, mettere in atto le loro policy in modo incoerente minando la fiducia degli utenti. Nel fare questo, usano in genere un linguaggio vago di avvertimento o addirittura finiscono per censurare, invece di fornire informazioni autorevoli e specifiche per ognuna di queste bufale”, ha spiegato il co-CEO di NewsGuard Gordon Crovitz. “Combinando le nostre impronte digitali costantemente aggiornate di tutte le principali fake news con le potenti capacità di intelligenza artificiale di BlackBird, potrebbero affrontare queste sfide in modo molto più efficace”.

I risultati dei test hanno dimostrato i limiti delle strategie esistenti usate delle varie piattaforme. Il test ha infatti rilevato contenuti che sembravano violare le policy contro la disinformazione sul COVID-19 delle piattaforme stesse e tuttavia rimanevano disponibili per gli utenti, generando un grosso engagement, senza alcun fact-checking o avviso. Ad esempio, il test ha fatto emergere un post da un account Twitter con oltre 97.000 follower che sosteneva che i vaccini antinfluenzali aumentano il rischio di COVID-19. Il post ha raccolto oltre 800 retweet, citazioni in altri tweet, e 821 Mi piace e non è stato né rimosso né accompagnato da un fact-checking da Twitter.

Su YouTube, il sistema ha segnalato un video dall’account di Children’s Health Defense, canale no-vax con oltre 24.000 abbonati YouTube. Nel video l’autore di serviva della stessa bufala per criticare una dichiarazione del dottor Anthony Fauci che esortava gli americani a farsi vaccinare contro l’influenza. YouTube non ha intrapreso alcuna azione contro il video o contro l’account, che in passato ha pubblicato altre informazioni false.

“L’enorme volume di informazioni pubblicate ogni giorno, combinato con la crescita esponenziale della disinformazione, sottolinea la necessità per le piattaforme di implementare soluzioni su larga scala più accurate e ottimizzate per rilevare bufale e teorie del complotto prima che possano mutare e diffondersi ampiamente”, ha affermato il CEO di BlackBird.AI Wasim Khaled. “Questo test ha dimostrato la potenza della nostra tecnologia, specialmente se combinata con le impronte digitali di NewsGuard come dati di partenza, ottenendo un’interfaccia uomo-macchina potente e in grado di essere applicata su larga scala, adatta a gestire la velocità, la mole e la complessità del disordine delle informazioni”.

Il report integrale che descrive l’esperimento, la metodologia e i risultati è disponibile qui.

 

NewsGuard

Fondato nel marzo 2018 dall’imprenditore dei media Steven Brill e dall’ex publisher del Wall Street Journal Gordon Crovitz, NewsGuard fornisce valutazioni di affidabilità e schede informative di migliaia di siti di notizie e informazioni. NewsGuard ha analizzato tutti i siti di notizie che rappresentano il 95% dell’engagement online negli Stati Uniti, nel Regno Unito, in Germania, Francia e Italia. I prodotti NewsGuard includono NewsGuard, HealthGuard e BrandGuard, e il Misinformation Fingerprints™, catalogo delle impronte digitali di disinformazione delle bufale più diffuse.

NewsGuard valuta ogni sito in base a nove criteri giornalistici apolitici ampiamente riconosciuti e assegna un punteggio a ogni criterio: un punteggio complessivo inferiore a 60 determina una valutazione “rossa” (ovvero inaffidabile) mentre un punteggio uguale o superiore a 60 determina una valutazione “verde” (ovvero generalmente affidabile).

Le valutazioni e schede informative di NewsGuard possono essere concesse in licenza da fornitori di servizi internet, browser, aggregatori di notizie, piattaforme di social media e motori di ricerca, che in questo modo le rendono disponibili ai loro utenti. I consumatori possono acquistare un abbonamento a NewsGuard per 2,95 euro al mese e avere accesso all’estensione del browser di NewsGuard per Chrome, Safari e Firefox e alla sua app mobile per iOS e Android. L’estensione del browser è disponibile gratuitamente su Edge di Microsoft grazie alla partnership in atto con Microsoft. Centinaia di biblioteche pubbliche in tutto il mondo hanno accesso gratuito all’estensione del browser di NewsGuard per offrire ai loro utenti un contesto più ampio alle notizie che incontrano online. Per ulteriori informazioni, incluso come scaricare l’estensione del browser e vedere il processo di valutazione, potete visitare newsguardtech.com/it.

 

BlackBird.AI

BlackBird è un’organizzazione fondata da un team multidisciplinare di imprenditori, ingegneri ed esperti di sicurezza nazionale con l’interesse di combattere la disinformazione. La tecnologia di BlackBird consente ai governi, alle piattaforme e alle imprese di Fortune 500 di smascherare i driver e gli impatti di narrative emergenti dannose che possono influenzare le loro campagne.

Il Constellation Engine™ di BlackBird ha la capacità di rilevare le narrazioni che vengono deliberatamente manipolate e promosse in modo “propagandistico” come parte di programmi di disinformazione diretta. Il BlackBird Risk Index (BRI) mette insieme i rischi di minacce (in base a manipolazione, tipologia di rete, comportamento degli utenti, analisi del contesto, linguaggio tossico) ed attività bot-like per generare Intelligence Narrativa automatizzata attraverso l’estrazione di segnali anomali nei dati social, notizie e web.

Consentendo ai clienti di comprendere dimensioni del rischio completamente nuove che altrimenti causerebbero danni finanziari, reputazionali e persino sociali, BlackBird mira a portare ordine nell’ecosistema digitale inquinato di oggi.

 

Contatti – NewsGuard

  • Steven Brill, Co-CEO, steven.brill@newsguardtech.com, +1 212-332-6301
  • Gordon Crovitz, Co-CEO, gordon.crovitz@newsguardtech.com, +1 212-332-6407
  • Matt Skibinski, General Manager, matt.skibinski@newsguardtech.com, +1 973.818.4698

Contatti – BlackBird.AI

  • Wasim Khaled, CEO, @WasimKhal
  • Brooke Greenwald, Media Relations, brooke@blackbird.ai, +1 240-370-7036