18/03/2024

NewsGuard lance un ensemble de services pour protéger les outils d’IA contre la mésinformation électorale en temps réel dans les formats texte, image, vidéo et audio

Un suivi continu des infox électorales couplé à des services d’audit en temps réel pour aider les entreprises d’IA à fournir des réponses fiables aux requêtes liées aux élections et à se protéger contre la manipulation par des acteurs malveillants.

(New York, 18 mars) NewsGuard, qui déploie des journalistes expérimentés et une technologie de pointe pour détecter, analyser et recueillir des données sur la mésinformation en ligne, annonce aujourd’hui le lancement d’une suite de protections visant à doter les outils d’intelligence artificielle de garde-fous contre la mésinformation électorale. Au cours d’une année marquée par plus de 40 élections majeures dans le monde, ces nouveaux outils protégeront les services d’intelligence artificielle contre la manipulation ou le préjudice involontaire causé par la diffusion de fausses informations.

Le mois dernier, NewsGuard a annoncé le lancement de son Centre de suivi de la mésinformation sur les élections, via lequel son équipe internationale d’analystes surveille en permanence le paysage de l’information pour détecter les sources d’infox et les faux récits liés aux élections prévues à travers le monde en 2024. La suite d’outils dévoilée aujourd’hui exploite ces données pour fournir une série de garde-fous aux fournisseurs d’IA.

Ces services, regroupés dans une Suite de sécurité électorale NewsGuard pour l’IA, comprennent cinq offres complémentaires qui peuvent être personnalisées pour répondre aux défis et aux objectifs uniques de chaque entreprise d’IA :

  • Détection continue de la mésinformation électorale : via son Centre de suivi de la mésinformation sur les élections, l’équipe d’analystes experts de NewsGuard exploite les données exclusives de NewsGuard sur la fiabilité des informations provenant de plus de 35.000 sites web, comptes sur les réseaux sociaux, chaînes vidéo et éditeurs audio afin de surveiller les colporteurs connus de mésinformation électorale et de détecter les infox nouvelles et émergentes le plus tôt possible dans tous les types de médias. 
  • Empreintes des fausses informations électorales : Un flux continuellement mis à jour de données solides sur chaque nouvel élément de mésinformation électorale dans un format lisible par les machines, conçu pour alimenter directement les garde-fous ou les classificateurs pour des mesures de protection immédiates. Chaque Empreinte de la Mésinformation contient des extraits linguistiques ou des supports médiatiques utilisés pour véhiculer le récit, des mots-clés, des hashtags et des termes de recherche liés au récit, des exemples du récit faux sur les réseaux sociaux et des URL sur internet, dans plusieurs langues et zones géographiques, des informations sur la provenance et le vecteur de diffusion de l’infox, ainsi que d’autres données conçues pour permettre aux entreprises d’IA de détecter automatiquement les requêtes et les réponses susceptibles de véhiculer le faux récit.
  • Test en temps réel de risque de mésinformation électorale : Lorsque de nouvelles fausses informations liées aux élections sont détectées, le réseau mondial d’analystes de NewsGuard teste les outils d’IA générative d’images, de vidéos, d’extraits audios et de textes pour voir comment ils réagissent aux requêtes en lien avec chaque nouvel élément de mésinformation en temps réel. Les clients reçoivent en continu des données d’évaluation des risques, y compris les requêtes et les réponses précises utilisées pour les tests, afin que leurs équipes chargées de la fiabilité et de la sécurité puissent identifier les failles et les risques dès qu’ils apparaissent.
  • Audit sur la désinformation par l’image, la vidéo, l’audio et le texte dans le cadre des élections : Appliquant leur connaissance des tactiques et des motivations des acteurs malveillants, les analystes de NewsGuard auditent les outils d’IA générative des entreprises pour tester leur propension à produire de nouvelles infox ou à créer des deepfakes convaincants. Les clients reçoivent des données relatives aux requêtes et aux réponses démontrant les techniques qui pourraient être utilisées par des acteurs malveillants pour contourner les garde-fous et exploiter les systèmes d’IA, ainsi que des évaluations du degré de protection du système contre une telle manipulation, et des détails sur toutes les vulnérabilités identifiées par NewsGuard.
  • Évaluation de l’intégrité des informations relatives au scrutin : Avant chaque grande élection, les analystes de NewsGuard testent proactivement les outils de l’entreprise d’IA afin de déterminer la précision avec laquelle le système répond aux requêtes relatives à l’organisation, aux règles et aux mécanismes du scrutin, même si ces sujets n’ont pas encore fait l’objet de nombreuses infox. Ce service permet d’identifier de manière proactive les domaines potentiels dans lesquels l’outil d’IA pourrait induire les électeurs en erreur, ce qui nuirait au processus démocratique et créerait un risque important pour la réputation du fournisseur d’IA, minant la confiance de ses utilisateurs.

Protection des modèles génératifs d’images, de vidéos, d’audio et de textes

Les données de NewsGuard et son approche en matière d’audit peuvent être appliquées à différents modèles d’IA générative, y compris les outils génératifs d’images, de vidéos et d’audio, en plus des outils génératifs de textes. Lors de l’analyse d’un outil génératif d’images, d’audio ou de vidéos, les analystes de NewsGuard appliquent leur connaissance des tactiques et des motivations des acteurs malveillants pour tester la propension de chaque modèle à produire de la mésinformation ou à créer des deepfakes convaincants dans le cadre de scénarios à fort enjeu tels que les élections et les conflits en cours.

“Les différents produits d’IA sont vulnérables à différents types de manipulation ou de préjudices involontaires”, explique Gordon Crovitz, co-PDG de NewsGuard. “Par exemple, un assistant virtuel générant du texte risque de fournir des informations inexactes sur l’organisation d’une élection, tandis qu’un outil de création d’images risque d’être utilisé pour créer des deepfakes montrant des candidats s’adonnant à des activités qui n’ont jamais eu lieu. Nous avons conçu cette suite de services de manière à ce qu’ils puissent être personnalisés et adaptés pour répondre au large éventail de risques auxquels les entreprises d’IA sont confrontées dans la protection de leurs produits en période électorale”.

Relever un défi important pour les fournisseurs d’IA

Alors que la technologie de l’IA générative a explosé pour devenir un nouveau secteur à forte croissance, les entreprises d’IA peinent à protéger leurs produits contre la mésinformation. Un audit de NewsGuard a ainsi montré que les outils d’IA générative tels que ChatGPT et Gemini (anciennement Bard) de Google répondaient à des requêtes sur des sujets faisant l’objet de faux récits en répétant ces mythes dans 80 à 98% des cas, selon le modèle. Un récent rapport du Centre de lutte contre la haine numérique aux États-Unis a également constaté que les meilleurs outils de génération d’images par l’IA pouvaient être incités à créer de fausses images de candidats ou de fausses informations relatives à l’intégrité d’une élection. 

La propension des systèmes d’IA à diffuser des informations erronées — soit par inadvertance, soit en raison d’abus de la part des utilisateurs – a sapé la confiance du public dans les outils d’IA. Une étude YouGov réalisée pour NewsGuard en novembre a révélé que la plupart des Américains pensent que l’IA est susceptible de propager des informations erronées, et que seuls 10% d’entre eux pensent que cela ne risque pas de se produire. Les informations erronées produites par les systèmes d’IA ont également entraîné une surveillance réglementaire accrue du secteur et une couverture médiatique négative pour plusieurs grands fournisseurs d’IA, ce qui fait de la gestion de ces risques une priorité absolue au sein du secteur.

“Nous savons que les entreprises d’IA se concentrent sur la protection contre la mésinformation électorale, avec 22 grandes entreprises qui ont récemment signé un accord contre l’utilisation trompeuse de l’IA dans le cadre d’élections”, souligne Sarah Brandt, vice-présidente exécutive des partenariats chez NewsGuard. “C’est pourquoi nous avons mis en place cette suite solide d’outils pour les aider”.

“Nos analystes sont les meilleurs du secteur pour surveiller, signaler et suivre les risques en matière de mésinformation, y compris ceux provenant de campagnes étatiques et ciblant les démocraties du monde entier”, ajoute Steven Brill, co-PDG de NewsGuard. “Cette nouvelle suite de services déploie cette expertise de manière à répondre spécifiquement aux nombreux défis des entreprises d’IA en matière de mésinformation électorale”.

Pour en savoir plus, demander des échantillons de données ou consulter un exemple d’audit, contactez partnerships@newsguardtech.com

 

À propos de NewsGuard

Fondé par le journaliste primé et entrepreneur des médias Steven Brill, et par Gordon Crovitz, ancien directeur de la publication du Wall Street Journal, NewsGuard fournit des outils transparents pour lutter contre la mésinformation à destination des lecteurs, des marques et des démocraties. Depuis son lancement en 2018, son équipe de journalistes internationaux et de spécialistes de l’information a recueilli, mis à jour et déployé plus de 6,9 millions de données sur plus de 35.000 sources d’information et d’actualité, et catalogué et suivi tous les principaux récits faux circulant en ligne.

Les analystes de NewsGuard, aidés de multiples outils d’intelligence artificielle, gèrent la base de données la plus vaste et la plus fiable sur l’actualité du secteur de la confiance. Ces données sont déployées pour peaufiner les modèles d’IA générative et leur fournir des garde-fous, pour permettre aux marques de diffuser leurs publicités sur des sites d’actualité de qualité et d’éviter les sites de propagande ou d’infox, pour fournir des outils d’éducation aux médias aux internautes, et pour soutenir les gouvernements démocratiques dans leur lutte contre les opérations de désinformation hostiles ciblant leurs citoyens. 

Parmi les autres indicateurs de l’étendue des opérations de NewsGuard, on peut citer le fait que les critères apolitiques et transparents de NewsGuard ont été appliqués par ses analystes pour évaluer la fiabilité des sites représentant 95% de l’engagement avec l’actualité dans neuf pays. 

 

Contact: media@newsguardtech.com