30/10/2020

Communiqué de presse de NewsGuard et Blackbird.AI

Les plateformes des réseaux sociaux disent ne pas pouvoir suivre le volume d’intox publiées. Maintenant elles le peuvent.

NewsGuard, avec ses nouvelles Empreintes de la Désinformation (Misinformation Fingerprints™), et Blackbird.AI font équipe pour montrer que l’intelligence humaine combinée au Machine Learning (Apprentissage automatique) peut permettre de rapidement détecter, et de limiter la portée d’importantes intox en ligne.

(30 octobre 2020 — New York) – Les intox et la mésinformation sur le COVID-19 et d’autres sujets se propagent rapidement en ligne, et les principales plateformes peinent à faire respecter leurs propres règles contre la mésinformation. Les plateformes ne sont pas en mesure de suivre toutes les nouvelles intox et les nouveaux récits qui émergent, ce qui les oblige à prendre des mesures rétrospectives, incohérentes et souvent trop tardives pour réellement mettre un terme au problème qu’elles cherchent à résoudre.

Mais ce problème pourrait être bientôt résolu, d’après un test effectué par NewsGuard et Blackbird.AI, au sujet duquel les deux sociétés publient un rapport aujourd’hui. En appliquant largement les techniques utilisées par NewsGuard et Blackbird AI dans ce test, les plateformes pourraient identifier les intox en temps réel, au sein d’un vaste volume de contenus.

Ce test a permis d’évaluer le potentiel de l’intelligence humaine combinée à l’intelligence artificielle pour suivre la trace des intox en ligne, à vaste échelle. Il s’est appuyé sur les intox renseignées dans la base de données de NewsGuard intitulée Empreintes de la Désinformation (Misinformation Fingerprints™). Cette base de données, qui est constamment mise à jour, rassemble des identifiants uniques et détaillés pour toutes les intox et récits sans fondement et trompeurs les plus populaires qui se propagent sur la toile. Elle s’appuie sur le travail de NewsGuard, qui consiste à évaluer la crédibilité de milliers de sites d’information et d’actualité dans le monde, pour alerter sur les sources de mésinformation.

Les données contenues dans ce catalogue unique d’intox, facile d’utilisation pour les programmes d’intelligence artificielle, ont servi de point de départ aux algorithmes de Blackbird. Dans cette expérience, les deux sociétés ont cherché à prouver qu’en s’appuyant sur les Empreintes de NewsGuard, les outils d’intelligence artificielle de Blackbird pouvaient identifier les contenus correspondant aux fausses allégations cataloguées par NewsGuard, sur plusieurs plateformes.

Le test s’est concentré sur deux fausses allégations relatives au COVID-19 — l’une selon laquelle le vaccin contre la grippe augmenterait le risque de contracter le COVID-19, et l’autre selon laquelle les masques provoqueraient de l’hypercapnie, un excès de dioxyde de carbone. En partant des Empreintes de NewsGuard — qui comprennent la description de chaque intox, les variations de cette intox, des exemples de contenus contenant cette intox, des recherches, des mots clés et des hashtags associés, ainsi que la démystification de cette intox, et des citations de sources faisant autorité sur le sujet — le système d’intelligence artificielle de Blackbird a pu identifier un large éventail de posts, vidéos et articles correspondant aux deux allégations, sur de nombreuses plateformes ainsi que sur le web.

Si cette solution était mise en place à large échelle, elle pourrait permettre aux plateformes d’identifier les récits autour des principales intox, en temps réel, sur un vaste volume de contenus. En utilisant ce système, les plateformes pourraient aussi tordre le cou aux principales intox de manière automatique, en incluant des informations visant à limiter leur propagation, comme les textes de NewsGuard démystifiant ces intox, au moment même où un utilisateur les voit, dans son flux d’information sur les réseaux sociaux ou dans son moteur de recherches.

“Aujourd’hui, nous voyons les plateformes mettre en oeuvre des mesures contre les contenus contenant des intox virales depuis plusieurs semaines voire plusieurs mois, et donc déjà passées de mode — ou pire encore, faire appliquer des mesures de manière incohérente, mettant ainsi à mal la confiance des utilisateurs. Ce faisant, elles utilisent en général des avertissements vagues, voire relevant de la censure, au lieu de donner des informations spécifiques faisant autorité sur ces intox”, estime Gordon Crovitz, co-PDG de NewsGuard. “En combinant nos Empreintes constamment mises à jour sur les mythes les plus répandus, avec les capacités puissantes en intelligence artificielle de Blackbird, les plateformes pourraient répondre de manière plus efficace à ces problèmes”.

Les résultats de ce test mettent en lumière les limites des stratégies actuellement mises en oeuvre par les plateformes. Ce test a en effet permis de faire remonter des contenus qui semblent violer les règles de plusieurs plateformes en ce qui concerne la mésinformation sur le COVID-19, et qui sont pourtant toujours disponibles, ne portent aucun avertissement, et suscitent un engagement non négligeable. Par exemple, ce test a fait remonter un post d’un compte Twitter avec plus de 97.000 abonnés affirmant que le vaccin contre la grippe augmente le risque de contracter le COVID-19. Quand nous l’avons repéré, ce post avait été retweeté ou mentionné 800 fois, il avait été aimé 821 fois, et il n’avait pas été supprimé ni vérifié par Twitter, malgré ses règles concernant la désinformation sur le COVID-19.

Sur YouTube, ce test a mis en exergue une vidéo provenant de la chaîne de Children’s Health Defense, un groupe anti-vaccins aux plus de 24.000 abonnés sur la plateforme de vidéos. Cette vidéo reprenait la même intox pour remettre en question les propos d’Anthony Fauci appelant les Américains à se faire vacciner contre la grippe. Quand nous l’avons repéré, YouTube n’avait pris aucune mesure contre la vidéo en question ni la chaîne l’ayant relayée, alors même que cette dernière avait publié des fausses allégations du même acabit par le passé.

“Le volume important d’informations créées chaque jour, couplé avec la croissance exponentielle des fausses informations, montre à quel point les plateformes doivent mettre en oeuvre des solutions plus précises pour détecter les intox dangereuses et les théories du complot avant qu’elles ne soient largement propagées”, juge le PDG de Blackbird, Wasim Khaled. “Cette expérience montre la puissance de notre technologie — en particulier quand elle est associée aux Empreintes de NewsGuard, utilisées comme données de départ. Le résultat est une interface homme-machine puissante, à même de gérer la rapidité, l’étendue et la complexité du désordre informationnel”.

Le rapport décrivant le test, sa méthodologie, et ses résultats est disponible ici (en anglais).

A propos de NewsGuard
Lancé en mars 2018 par le journaliste primé et entrepreneur des médias Steven Brill, et par Gordon Crovitz, ancien directeur de la publication du Wall Street Journal, NewsGuard fournit des évaluations de crédibilité et des “Étiquettes Nutritionnelles” détaillées pour des milliers de sites d’actualité et d’information. NewsGuard évalue tous les sites d’information et d’actualité qui représentent 95% du contenu partagé, commenté et aimé en ligne aux Etats-Unis, au Royaume-Uni, en Allemagne, en France, et en Italie. Parmi les produits de NewsGuard figurent NewsGuard, HealthGuard, BrandGuard, qui aide les publicitaires concernés par leur image de marque, ou encore le catalogue des principales intox en ligne, appelé Empreintes de la Désinformation (Misinformation Fingerprints™).

NewsGuard évalue chaque site en fonction de neuf critères apolitiques relatifs à ses pratiques journalistiques, à savoir notamment si le site publie de manière répétée de fausses informations, s’il corrige régulièrement ses erreurs, et s’il évite les titres trompeurs. NewsGuard attribue des points pondérés pour chaque critère et les additionne; un score de moins de 60 vaut au site une notation “Rouge”, tandis qu’un score de 60 et plus vaut au site une notation “Verte”, ce qui signifie qu’il est globalement fiable.

Les fournisseurs d’accès à internet, les moteurs de recherche, les agrégateurs de contenu, les entreprises d’éducation, les réseaux sociaux et les plateformes de recherche peuvent acheter des licences pour offrir à leurs utilisateurs les évaluations de sites et Étiquettes Nutritionnelles de NewsGuard. Ces évaluations sont disponibles pour les consommateurs via son extension de navigateur, qui est disponible xc la vente pour 2,95 euros par mois sur les navigateurs Chrome, Safari et Firefox, et via une application mobile sur les appareils Android et iOS. L’extension de navigateur est disponible gratuitement via Edge, le navigateur de Microsoft, via un accord avec Microsoft, et les évaluations de NewsGuard peuvent aussi être consultées via le navigateur mobile Edge.

Des centaines de bibliothèques dans le monde utilisent l’extension de navigateur NewsGuard gratuitement comme outil d’éducation aux médias sur les ordinateurs mis à disposition du public, afin de donner davantage de contexte aux lecteurs sur les informations qu’ils lisent en ligne. Pour obtenir plus d’informations, notamment sur la manière de télécharger l’extension de navigateur, et sur notre méthode d’évaluation, visitez www.newsguardtech.com/fr.

A propos de Blackbird.AI
Blackbird est une organisation avec une mission forte, fondée par une équipe multidisciplinaire d’entrepreneurs, d’ingénieurs et d’experts de la sécurité nationale qui souhaitent tous combattre la désinformation et la mésinformation. La technologie de Blackbird permet aux gouvernements, aux plateformes et aux marques de lever le voile sur les forces responsables des récits dangereux et des campagnes d’influence en ligne.

Le Constellation Engine™ de Blackbird peut détecter les signatures de récits qui sont manipulés à dessein et promus à la manière de la propagande dans des campagnes de désinformation. Le Risk Index de Blackbird (BRI) fusionne les risques de menaces en fonction de la manipulation, de la topologie des réseaux, du comportement des utilisateurs, de l’analyse du contexte, du langage toxique et des comportements de type bots pour générer une intelligence automatisée sur les récits (Automated Narrative Intelligence) via l’extraction de signaux anormaux dans les réseaux sociaux, les articles d’actualité et les données du web.

En permettant à ses clients de comprendre des dimensions très nouvelles du risque qui pourraient entraîner des préjudices financiers, de réputation, voire sociétaux, Blackbird vise à rétablir de l’ordre dans l’écosystème digital pollué qui est le nôtre aujourd’hui.

Contact: NewsGuard

  • Chine Labbé, Rédactrice en chef, Europe, chine.labbe@newsguardtech.com

Contacts: Blackbird.AI

  • Wasim Khaled, CEO, @WasimKhal
  • Brooke Greenwald, Media Relations, brooke@blackbird.ai, +1 240-370-7036