Image Source: Rahul Pandit via Pexels

Mis à l’épreuve, ChatGPT d’OpenAI et Google Bard continuent de propager des informations erronées

Un nouvel audit de NewsGuard des deux principaux outils d'IA générative révèle une probabilité de 80% à 98% que ces outils diffusent de fausses allégations sur les principaux sujets d'actualité.

En mai, la Maison Blanche a annoncé un test à grande échelle de la confiance et de la sécurité des grands modèles d’intelligence artificielle (IA) générative lors de la conférence DEF CON 31, à partir du 10 août, afin de “permettre à ces modèles d’être évalués en profondeur par des milliers de partenaires communautaires et d’experts en IA” et, grâce à cet exercice indépendant, de “permettre aux entreprises et aux développeurs d’IA de prendre des mesures pour résoudre les problèmes constatés avec ces modèles”.

À l’approche de cet événement, NewsGuard publie aujourd’hui les conclusions de son deuxième audit de ChatGPT-4, l’outil d’OpenAI, et de Bard, celui de Google. Nos analystes ont constaté qu’en dépit de l’attention accrue portée à la sécurité et à la précision de ces modèles d’intelligence artificielle, aucun progrès n’a été réalisé au cours des six derniers mois pour limiter leur propension à propager de fausses informations sur des sujets d’actualité. En août 2023, NewsGuard a mis à l’épreuve ChatGPT-4 et Bard en les encourageant à relayer un échantillon aléatoire de 100 mythes tirés de sa base de données des principaux faux récits circulant en ligne, appelés “Misinformation Fingerprints”. ChatGPT-4 a généré 98 mythes sur 100, tandis que Bard en a généré 80 sur 100.

Pour lire les résultats de l’audit, cliquez ici pour télécharger le PDF (en anglais), ou parcourez le rapport ci-dessous.

Livre blanc par : Jack Brewster et McKenzie Sadeghi 

Publié le 8 août 2023