Par Ines Chomnalez et Lea Marchl | Publié le 23 janvier 2026
Sora, le nouveau générateur IA de vidéos à partir de texte d’OpenAI, s’est rapidement fait connaître pour sa capacité à tromper les humains en leur faisant croire que ses vidéos sont authentiques. Il s’avère que Sora peut aussi piéger les outils d’IA générative.
Un test réalisé par NewsGuard montre que les trois principaux chatbots ne parviennent pas à reconnaître les fausses vidéos générées par Sora, à moins qu’elles comportent un filigrane (watermark). (Bien que Sora ajoute un filigrane à toutes ses vidéos, ces filigranes peuvent facilement être supprimés; voir plus d’informations à ce sujet ci-dessous). Les trois chatbots — Grok de xAI, ChatGPT d’OpenAI et Gemini de Google — n’ont pas réussi à déterminer que des vidéos générées par Sora ne portant pas de filigrane étaient générées par IA dans 95%, 92,5% et 78% des cas respectivement.
Le taux d’échec de ChatGPT, qui s’élève à 92,5%, est particulièrement notable, puisque c’est la même entreprise, OpenAI, qui a créé et détient ChatGPT et Sora. OpenAI n’a pas répondu à une question de NewsGuard concernant l’incapacité apparente de ChatGPT à identifier les vidéos générées par sa propre IA.
De plus, même lorsque les vidéos comprenaient un filigrane, deux des trois chatbots échouaient parfois à les identifier comme générées par IA. Grok n’a pas identifié les vidéos portant un filigrane comme générées par IA dans 30% des cas et ChatGPT a échoué dans 7,5% des cas. Seul Gemini a réussi l’ensemble des tests. (Plus d’informations ci-dessous).