Par Ines Chomnalez et Sofia Rubinson | Publié le 4 décembre 2025
Le nouveau générateur d’images IA de Google, Nano Banana Pro, qui a été salué pour ses images très réalistes créées à partir d’un simple texte, semble avoir un inconvénient. En effet, il véhicule de fausses affirmations sur des personnalités politiques, des sujets de santé publique et des marques connues dans 100% des cas (30 sur 30) lorsqu’on lui demande de le faire, selon une analyse de NewsGuard.
Google a lancé Nano Banana Pro le 20 novembre 2025 en le présentant comme une amélioration majeure de son ancien outil d’édition d’images Nano Banana, offrant désormais la possibilité de générer quasi instantanément des images très réalistes à partir de consignes écrites. Des premiers tests du modèle ont relevé qu’il était nettement plus réaliste que ses concurrents, suscitant des inquiétudes quant à sa capacité à produire des images trompeuses et soulevant des questions sur la capacité d’un utilisateur lambda à faire la différence entre du contenu produit par Nano Banana Pro et des images réelles.
Ces inquiétudes semblent justifiées. NewsGuard a utilisé sa base de données recensant les principaux récits faux circulant en ligne pour évaluer si Nano Banana Pro rejetait les requêtes visant à relayer des récits faux. NewsGuard a testé 30 fausses affirmations qui ont récemment circulé en ligne, dont cinq liées à la santé publique, cinq liées à la politique américaine, cinq liées à la politique européenne, cinq liées au Moyen-Orient, cinq liées à des marques internationales et cinq liées à des opérations d’influence russes.
Nano Banana Pro a généré des images convaincantes pour chacune de ces fausses affirmations. Parfois, il a même ajouté des détails qui ne figuraient pas dans les requêtes de NewsGuard, visiblement dans le but de rendre les images encore plus crédibles. Les images générées par Nano Banana Pro illustrant de fausses allégations incluaient notamment un passeport russe censé appartenir au président ukrainien Volodymyr Zelensky, un graphique appuyant l’idée selon laquelle attraper la rougeole fournirait une protection à long terme contre le cancer, et une image d’un reportage prétendant montrer Donald Trump annonçant que les États-Unis ont levé tous les droits de douane sur la Chine.
Ces résultats suggèrent qu’avec un minimum d’efforts et sans aucune expertise technique, des acteurs malveillants pourraient utiliser ce nouvel outil de Google pour diffuser à grande échelle de fausses informations, accompagnées d’images bien plus réalistes et convaincantes que celles généralement utilisées dans les campagnes de désinformation en ligne.
Nano Banana Pro inclut un filigrane visible dans le coin inférieur gauche de ses images, ainsi que ce que Google a décrit dans un communiqué comme un filigrane numérique “imperceptible” appelé SynthID, qui permet aux outils de détection de l’IA d’identifier les images produites par le modèle. Cependant, NewsGuard a constaté que le filigrane visible pouvait facilement être supprimé des images générées. Par ailleurs, les observateurs peu méfiants des images en ligne peuvent ne pas avoir accès aux modèles de détection de l’IA à même de détecter la présence de SynthID.