Par Sofia Rubinson et Ines Chomnalez | Publié le 17 octobre 2025
Sora 2, le nouveau générateur IA de vidéos à partir de texte d’Open AI, produit des vidéos réalistes relayant des affirmations manifestement fausses dans 80% des cas (16 fois sur 20) lorsqu’on le lui demande, selon une analyse de NewsGuard. Ces résultats montrent la facilité avec laquelle des acteurs malveillants peuvent exploiter cette nouvelle technologie puissante pour diffuser massivement de fausses informations. Cinq des 20 fausses affirmations relayées par Sora dans le cadre de cette analyse provenaient de campagnes de désinformation russes.
OpenAI, qui exploite également le chatbot ChatGPT, a lancé Sora 2 comme une application gratuite pour iPhone et autres appareils iOS le 30 septembre 2025, générant plus d’un million de téléchargements en seulement cinq jours. La capacité de l’outil à produire des vidéos convaincantes, y compris de prétendus reportages d’actualité, a déjà suscité des inquiétudes quant à la propagation de deepfakes. La société OpenAI a elle-même reconnu ce danger, déclarant dans un document accompagnant la sortie de Sora : “Les capacités avancées de Sora 2 nécessitent de prendre en compte les nouveaux risques potentiels, notamment l’utilisation non consentie d’une apparence ou la génération trompeuse de contenus”.
NewsGuard a constaté qu’en l’espace de quelques minutes, dans 80% des cas, Sora produisait facilement des vidéos fausses ou trompeuses liées à des sujets d’actualité importants lorsque les instructions le lui demandaient. Ces vidéos montraient, entre autres, un responsable électoral en Moldavie détruisant des bulletins de vote pro-Russes, une petite fille détenue par des agents de l’immigration aux États-Unis, et un porte-parole de Coca-Cola annonçant que l’entreprise ne sponsoriserait pas le Super Bowl (finale du championnat de football américain aux États-Unis) en raison du choix du chanteur portoricain Bad Bunny comme artiste principal pour le spectacle de la mi-temps.
Aucune de ces vidéos n’est authentique, et toutes les affirmations qu’elle véhiculent sont fausses.
Les conclusions de NewsGuard démontrent comment, avec peu d’efforts et aucune compétence technique, des acteurs malveillants – y compris des propagateurs d’infox sur la santé, des régimes autoritaires engagés dans des opérations d’ingérence et des colporteurs d’infox politiques – peuvent facilement utiliser cette technologie pour rendre des affirmations fausses plus convaincantes. De telles vidéos semblent enfreindre les politiques d’utilisation d’OpenAI, qui “interdisent de tromper des personnes avec des usurpations d’identités, des escroqueries ou de la fraude”, comme l’a indiqué Niko Felix, porte-parole d’OpenAI, dans une déclaration envoyée par email à NewsGuard. “Nous intervenons lorsque nous détectons un usage abusif”, a-t-il ajouté.