NewsGuard pour l’IA

Des données fiables pour une IA fiable

En l’absence de sources de qualité et de garde-fous rigoureux, les outils d’IA générative répètent de fausses affirmations ou fournissent des informations inexactes dans jusqu’à plus de 40% des cas, en particulier sur les sujets d’actualité.

En tant que leader mondial de l’évaluation de la fiabilité de l’information, NewsGuard fournit aux entreprises d’IA des données rigoureuses, labellisées par des humains, qui garantissent en continu une haute qualité des sources de données et une protection contre les fausses affirmations nouvelles et émergentes.

En savoir plus

Vous souhaitez plus d'informations sur NewsGuard? Merci de remplir ce formulaire, et un membre de notre équipe prendra contact avec vous rapidement.

  • This field is for validation purposes and should be left unchanged.

NewsGuard pour l’IA s’assure que les réponses des IA génératives sont:

Sourcées de manière fiable

Notre “Évaluations de la fiabilité des sources”, un flux de données mis à jour en continu, fournit des données labellisées humainement, qui évaluent la précision et la fiabilité de plus de 35.000 sources d’information et d’actualité en s’appuyant sur des critères journalistiques et apolitiques. Avec ce flux de données, les entreprises d’IA peuvent s’assurer que les réponses relatives à l’actualité s’appuient sur des sources de données de haute qualité dans l’entraînement des modèles et dans la génération augmentée de récupération ou RAG – et ainsi éviter de citer des sources peu fiables dans les réponses.

Protégées contre les fausses affirmations

Les “Empreintes des récits faux” de NewsGuard protègent les outils d’IA générative contre les fausses affirmations se propageant en ligne et qui peuvent s’immiscer dans les réponses à travers des données d’entraînement de mauvaise qualité ou dans la génération augmentée de récupération ou RAG effectuant des recherches sur le web. Cette base de données labellisées sur les fausses affirmations, qui est mise à jour en continu, contient de nombreux détails sur la provenance de chaque affirmation et comment celle-ci s’appuie sur des textes, images, vidéos et extraits audios sur différentes plateformes – permettant une protection complète.

Auditées sur des sujet d’actualité à hauts risques

Nos experts sur la fiabilité de l’information ont des expertises précises sur de fausses affirmations, des théories du complot, et des opérations d’ingérence étrangère qui posent des risques importants pour la qualité des réponses de l’IA. Nos audits des fausses affirmations identifient les points faibles et les vulnérabilités des garde-fous existants et évaluent la performance des IA par rapport au reste de l’industrie sur des sujets d’actualité.

Protégées contre les menaces émergentes

Avec des alertes en temps réel et des briefings sur les risques, nos analystes experts alertent les entreprises d’IA à propos des menaces émergentes – notamment les opérations d’ingérence étrangères provenant d’États autoritaires ciblant les réponses des IA avec des fausses affirmations et de la propagande.

 

Intégrations rapides et simples via une API ou un flux de données sur le cloud