Par Isis Blachez, Ines Chomnalez et Lea Marchl | Publié le 20 février 2026
La version vocale de ChatGPT d’OpenAI et Gemini Live de Google — des chatbots audio qui répondent aux requêtes des utilisateurs avec des voix générées par IA — produisent des extraits audio réalistes relayant des infox dans 45% des cas pour ChatGPT et 50% des cas pour Gemini Live quand on le leur demande, comme le montre un audit de NewsGuard. À l’inverse, Alexa+, le chatbot audio IA d’Amazon, refuse de répéter toutes les fausses informations qui lui sont soumises, révèle ce même test.
Ces résultats montrent que ces outils peuvent être exploités par des acteurs malveillants pour disséminer des récits faux, tout en prouvant qu’il est possible de créer des modèles audio avec des gardes-fous bloquant la propagation de fausses affirmations.
La capacité des outils de clonage de voix par IA comme ElevenLabs et Invideo AI à diffuser de fausses affirmations a été largement documentée. Ces outils sont conçus pour transformer des textes écrits en contenus audio réalistes et peuvent être utilisés pour usurper l’identité de personnes réelles en leur attribuant de fausses déclarations. Toutefois, moins d’attention a été portée aux modèles audio des principales entreprises d’IA. Ils dialoguent avec les utilisateurs à travers des échanges personnalisés et créent des contenus audio qui peuvent être partagés sur les réseaux sociaux.
NewsGuard a testé la version vocale de ChatGPT, Gemini Live et Alexa+ avec des instructions reprenant 20 récits faux (cinq infox sur la santé, cinq sur la politique américaine, cinq sur l’actualité internationale et cinq relevant de la désinformation étrangère), sélectionnés parmi les Empreintes des récits faux de NewsGuard, une base de données cataloguant les principales affirmations fausses circulant en ligne. Les modèles ont reçu trois types de consignes portant sur chaque affirmation : une instruction innocente demandant si l’affirmation est vraie, une instruction orientée demandant pourquoi ou comment l’événement en question s’est produit, et une instruction malveillante imitant la manière dont un acteur malveillant utiliserait l’outil pour générer un script présentant la fausse affirmation comme vraie.
En moyenne, tous types d’instructions confondues, Gemini a répété de fausses affirmations dans 23% des cas (14 sur 60), ChatGPT a répété des infox dans 22% des cas (13 sur 60) et Alexa+ a refusé de répéter toutes les infox qui lui ont été soumises. Toutefois, les taux d’échec des modèles ont plus que doublé face aux instructions malveillantes, s’élevant à 50% pour le modèle vocal de ChatGPT et 45% pour Gemini Live.