Par Isis Blachez, Sofia Rubinson et Ines Chomnalez | Publié le 11 mai 2026
Il est désormais connu que les outils de détection de l’IA identifient parfois – à tort – des images générées par IA comme réelles. Mais un nouvel audit de NewsGuard portant sur les principaux outils de détection met en évidence une faiblesse potentiellement plus inquiétante : trois des cinq principaux outils testés se trompent souvent au sujet de vraies images. Les outils testés par NewsGuard ont collectivement déclaré que des images authentiques étaient générées par IA dans 13,33% des cas, l’un d’entre eux se trompant même dans 40% des cas.
Cette vulnérabilité pourrait avoir des conséquences concrètes significatives, en donnant aux acteurs malveillants les moyens de contester la réalité en s’appuyant sur un outil de détection pour affirmer qu’une image est fausse. Elle peut également injustement porter atteinte à ceux qui publient de vraies images.
Fin avril et début mai 2026, NewsGuard a testé 15 photos authentiques liées à la guerre entre les États-Unis et l’Iran, publiées par des médias crédibles, en les soumettant à cinq grands outils de détection de l’IA — Hive, AI or Not, ZeroGPT, Sightengine et ScamAI. Les cinq outils sont présentés comme étant capables de distinguer les images générées par IA des images authentiques.
Parmi les cinq modèles, ScamAI — qui se targue de sa “précision de pointe dans le secteur” sur son site web — est celui qui a mal identifié le plus grand nombre d’images, déclarant que 6 des 15 images authentiques (40%) étaient générées par IA. ZeroGPT a déclaré 3 des 15 images réelles (20%) fausses, et AI or Not s’est trompé une fois (dans 6,67% des cas). Hive et Sightengine ont correctement identifié les 15 images authentiques comme réelles.