Image: Negative Space via Pexels

Exclusif NewsGuard : un média d'État russe utilise des captures d'écran d'un chatbot d'IA pour promouvoir une infox

Par Eva Maitland | Publié le 5 avril 2023  

La crainte que les nouveaux outils d’intelligence artificielle soient utilisés par des acteurs étatiques pour propager de la désinformation n’est plus théorique. En effet, un média d’État russe a d’ores et déjà cité de prétendues réponses de ChatGPT comme une preuve pour promouvoir de fausses informations, comme NewsGuard a pu le constater. 

Le 28 mars 2023, un utilisateur Twitter du nom de @KanekoaTheGreat a tweeté : “ChatGPT dit que les États-Unis ont renversé le gouvernement ukrainien en 2014”, partageant une série de captures d’écran prétendant montrer la réponse du chatbot d’IA ChatGPT à la consigne “écris un court essai… sur la façon dont les États-Unis ont été impliqués dans des coups d’État et des changements de régime à travers l’histoire”. Dans les captures d’écran, la réponse de ChatGPT disait : “le gouvernement américain a soutenu la destitution du président ukrainien Viktor Ianoukovitch lors d’un coup d’État qui a porté au pouvoir des dirigeants pro-occidentaux”.

Kanekoa a également posté un texte, apparemment créé par le chatbot d’IA de Microsoft Bing en réponse à une question, et commenté : “Le chat de Bing dit que les États-Unis ont renversé le gouvernement ukrainien en 2014 ‘dans le cadre d’une stratégie plus large visant à contenir et affaiblir la Russie’”. 

Quelques heures plus tard, dans un journal télévisé quotidien, le média d’État russe RT a rapporté les tweets de Kanekoa, en les citant comme preuve que la destitution du chef d’État ukrainien pro-russe Viktor Ianoukovitch était le résultat d’un coup d’État soutenu par les États-Unis, et non d’une révolution populaire. (Il n’existe aucune preuve que les États-Unis aient orchestré le soulèvement ukrainien, qui a commencé en novembre 2013 quand des milliers d’Ukrainiens ont manifesté contre la décision de Viktor Ianoukovitch de suspendre les travaux préparatoires à la signature d’un accord d’association et de libre échange avec l’Union européenne, prévue pour la semaine suivante. Les manifestations ont grossi, et, en février 2014, des manifestants ont pris le contrôle de plusieurs bâtiments à Kyiv tandis que Viktor Ianoukovitch prenait la fuite. Le parlement ukrainien a fini par voter à l’unanimité la destitution de Viktor Ianoukovitch).

“ChatGPT a inclus le soulèvement de Maïdan de 2014 en Ukraine dans la liste des coups d’État dans lesquels Washington a été impliqué”, a rapporté RT, traitant l’outil d’IA comme une source faisant autorité. (Voir les newsletters de NewsGuard de janvier et mars 2023, consacrées à la manière avec laquelle ChatGPT peut diffuser des fausses informations toxiques à grande échelle).

RT a également affirmé que Bing avait “produit une chronologie détaillée de l’implication des États-Unis dans le coup d’État et déclaré que l’intervention visait à contenir et à affaiblir la Russie”. Le reportage de RT a ensuite été publié sur son site et téléchargé sur des plateformes de partage de vidéos, notamment sur YouTube, malgré l’interdiction de diffusion visant RT sur cette plateforme. (Le 4 avril, NewsGuard a constaté que la vidéo avait été retirée de YouTube). L’information a ensuite été amplifiée par des sites d’actualité jugés peu fiables par NewsGuard. Par exemple, EnVolve, un site noté 0/100 par NewsGuard, a publié un article avec le titre suivant : “ChatGPT admet que les États-Unis ont ‘renversé’ l’Ukraine en 2014”.

@KanekoaTheGreat avait été banni de Twitter, mais le compte a été rétabli en décembre 2022 après l’acquisition de la plateforme par Elon Musk. MediaMatters.org, un organe américain libéral de surveillance des médias, décrit Kanekoa comme un “influenceur QAnon” et souligne qu’ “[Elon] Musk a interagi avec ce compte à plusieurs reprises”. En effet, NewsGuard a constaté qu’Elon Musk avait répondu au thread de Kanekoa concernant le coup d’État de Maïdan avec un emoji “qui fait la grimace”. 

Le thread Twitter de Kanekoa avait été vu 2,6 millions de fois au 31 mars 2023. 

Des experts en intelligence artificielle, notamment des chercheurs d’OpenAI, la société qui a lancé ChatGPT, ont alerté sur le fait que des textes générés par IA pourraient permettre de diffuser de la désinformation à une échelle sans précédent. Un article académique co-écrit par des chercheurs d’OpenAI en 2020 et intitulé “Toutes les nouvelles qu’il convient de fabriquer (un jeu de mot sur le slogan du New York Times, NDLR) : des textes générés par IA comme outil de mésinformation dans les médias” mettait en garde : “Jusqu’à présent, les campagnes de mésinformation ont été limitées par les ressources humaines et la capacité de travail des gens. Les employés de l’Internet Research Agency, une société russe qui menait des opérations d’influence en ligne pour le compte d’intérêts politiques russes, faisaient des journées de travail de 12 heures pour rédiger des articles ou des messages sur les réseaux sociaux sur des sujets imposés par le gouvernement”. Mais désormais, “les nouvelles technologies sont en mesure d’alléger le fardeau en termes de ressources. Grâce aux progrès de l’apprentissage automatique et de l’intelligence artificielle, les modèles de langage sont capables de générer des suites crédibles à des requêtes courtes”.