NewsGuard aide les développeurs de modèles d’IA à éviter de diffuser de la mésinformation

Les sujets d’actualité présentent un défi majeur pour les modèles d’intelligence artificielle générative qui diffusent de fausses informations à une échelle sans précédent. Les entreprises proposant des produits d’intelligence artificielle générative peuvent acheter des licences d’accès aux données de NewsGuard, des données alimentées par des humains, pour ajuster leurs modèles et créer des des garde-fous post-traitement pour reconnaître et réfuter les récits manifestement faux, et traiter les contenus provenant de sites d’information dignes de confiance différemment de ceux provenant des sites de mésinformation.

Un jugement humain est nécessaire pour former une IA responsable – et c’est précisément ce que les évaluations de fiabilité et les “Empreintes de la Mésinformation” (Misinformation Fingerprints™) de NewsGuard fournissent.  

La première génération de modèles d’IA générative a perdu la confiance du public parce qu’elle fournit trop souvent des réponses bien écrites, convaincantes – et fausses – sur des sujets d’actualité. Des données responsables d’entraînement responsables peuvent empêcher que les modèles d’IA ne propagent des théories du complot et d’autres fausses informations. Les données de NewsGuard, entièrement alimentées par nos analystes, qui sont formés aux méthodes journalistiques, permettent aux développeurs d’IA générative d’avoir l’esprit tranquille pour la première fois, grâce à des outils de lutte contre la mésinformation. 

NewsGuard fournit des données sur la crédibilité des sources pour ajuster les modèles d’IA générative afin qu’ils fournissent des réponses provenant de sources fiables et des garde-fous post-traitement pour empêcher les modèles de diffuser de faux récits sans l’actualité. 

  • Les Évaluations de la Fiabilité de NewsGuard : Accédez aux évaluations de fiabilité de NewsGuard pour toutes les sources d’informations et d’actualité principales en ligne, afin d’ajuster les modèles d’IA pour qu’ils citent des sources fiables, qu’ils traitent les sources peu fiables différemment, et qu’ils affichent les scores de fiabilité des sources d’information et d’actualité.
  • Les “Misinformation Fingerprints de NewsGuard™ : Accédez à ce catalogue constamment mis à jour de NewsGuard, qui recense les principaux faux récits qui circulent en ligne, présentés dans des formats lisibles tant par les humains que par les machines, pour fournir aux modèles d’IA des des garde-fous post-traitement leur permettant de reconnaître, et de contenir – et non de créer et de propager – les faux récits. 
En savoir plus

Vous souhaitez plus d'informations sur NewsGuard? Merci de remplir ce formulaire, et un membre de notre équipe prendra contact avec vous rapidement.

  • This field is for validation purposes and should be left unchanged.

“Microsoft Bing Chat est le premier modèle d'IA générative avec une licence lui permettant d’accéder aux données de NewsGuard : ‘Les résultats transparents et clairs de Bing (...) offrent un véritable équilibre entre transparence et autorité, conciliant la demande que les plateformes servent de garde-fous et bloquent les sources non fiables, et celle qu'elles n'exercent aucun jugement‘.”

Ben Smith

Semafor

“NewsGuard rassemble des données sur les sources d'information qui font le plus autorité, et sur les faux récits les plus importants qui se répandent en ligne. Les développeurs d'IA générative peuvent ensuite utiliser ces données pour mieux former leurs algorithmes afin de valoriser les sources d'information de qualité et d'éviter les faux récits.”

Ashley Gold & Sara Fischer

Axios

“Lorsque le mode ‘chat’ du moteur de recherche Bing de Microsoft a été soumis au même test, il a non seulement présenté une analyse plus équilibrée, mais a également donné des citations, et souvent inclus les évaluations de la fiabilité de ses sources par NewsGuard, un site qui évalue la fiabilité de la grande majorité des sites d'information du monde anglophone.”

Richard A. Lovett

Cosmos