Image via Canva

Les principaux outils de détection d’images générées par IA induisent leurs utilisateurs en erreur, classant souvent comme faux du contenu authentique

Par Isis Blachez, Sofia Rubinson et Ines Chomnalez | Publié le 11 mai 2026

 

Il est désormais connu que les outils de détection de l’IA identifient parfois – à tort – des images générées par IA comme réelles. Mais un nouvel audit de NewsGuard portant sur les principaux outils de détection met en évidence une faiblesse potentiellement plus inquiétante : trois des cinq principaux outils testés se trompent souvent au sujet de vraies images. Les outils testés par NewsGuard ont collectivement déclaré que des images authentiques étaient générées par IA dans 13,33% des cas, l’un d’entre eux se trompant même dans 40% des cas.

Cette vulnérabilité pourrait avoir des conséquences concrètes significatives, en donnant aux acteurs malveillants les moyens de contester la réalité en s’appuyant sur un outil de détection pour affirmer qu’une image est fausse. Elle peut également injustement porter atteinte à ceux qui publient de vraies images.

Fin avril et début mai 2026, NewsGuard a testé 15 photos authentiques liées à la guerre entre les États-Unis et l’Iran, publiées par des médias crédibles, en les soumettant à cinq grands outils de détection de l’IA — Hive, AI or Not, ZeroGPT, Sightengine et ScamAI. Les cinq outils sont présentés comme étant capables de distinguer les images générées par IA des images authentiques. 

Parmi les cinq modèles, ScamAI — qui se targue de sa “précision de pointe dans le secteur” sur son site web — est celui qui a mal identifié le plus grand nombre d’images, déclarant que 6 des 15 images authentiques (40%) étaient générées par IA. ZeroGPT a déclaré 3 des 15 images réelles (20%) fausses, et AI or Not s’est trompé une fois (dans 6,67% des cas). Hive et Sightengine ont correctement identifié les 15 images authentiques comme réelles.

Pourcentage d’images réelles signalées comme générées par IA par les outils de détection.

Dennis Ng, cofondateur de ScamAI, a reconnu lors d’un entretien vidéo avec NewsGuard le 6 mai 2026 que des faux positifs pouvaient se produire. L’une des raisons pour lesquelles les outils de détection peuvent se tromper est qu’ils ont en général besoin d’une haute résolution et d’un nombre élevé de pixels pour détecter une image réelle, a-t-il expliqué. “Nous pouvons certainement ajuster et affiner nos modèles en fonction de cas d’usage spécifiques pour aider à réduire ces occurrences”, a-t-il dit. (Le site web de ScamAI indique : “La précision varie selon le type de média et la technique d’attaque”, ajoutant que son modèle atteint généralement “95,3% de précision dans la détection”).

Le PDG de ZeroGPT, Rawad Baroud, a déclaré à NewsGuard dans un email du 6 mai 2026 que les techniques de traitement d’images comme le redimensionnement et la compression pouvaient entraîner un classement erroné d’images comme ayant été générées par IA. Il a ajouté que les images “qui contiennent des caractéristiques visuelles similaires aux images synthétiques”, comme un éclairage inhabituel, un contraste élevé et du flou, pouvaient entraîner des résultats inexacts. “Les images d’actualité provenant de zones de conflit peuvent souvent contenir plusieurs de ces caractéristiques”, a-t-il déclaré. 

ZeroGPT n’indique pas quel est le pourcentage de précision de son détecteur d’image, mais la société dit sur son site internet que l’outil peut être utilisé “pour prendre des décisions informées sur l’authenticité d’une image”. 

Le CEO de AI or Not a indiqué à NewsGuard dans un email du 7 mai 2026 que “dans le cas d’un faux positif, la faible qualité de l’image peut parfois affecter le résultat”. Sur son site, AI or Not indique avoir une “précision de détection de l’IA de 98,9%” basée sur “l’évaluation par AI or Not d’un ensemble récent de données académiques publiques contenant des images réelles et des images générées par IA”.

Les images de la guerre en Iran mettent les outils en difficulté

La guerre en Iran de 2026 a engendré un flot d’images suspectes sur les réseaux sociaux, allant d’images de frappes de missiles et de destructions urbaines fabriquées de toutes pièces à des mises en scène de prétendues victimes, toutes conçues pour manipuler la perception du public. 

Des acteurs malveillants ont également arsenalisé des outils de détection de l’IA, s’en servant pour discréditer des visuels authentiques. Un exemple particulièrement médiatisé de ce phénomène est la vidéo authentique de “preuve de vie” du Premier ministre israélien Benjamin Netanyahu dans un café, qu’il a publiée pour démentir les rumeurs selon lesquelles il aurait été tué ou blessé lors d’une frappe de missile iranien.

Un utilisateur de X cite un résultat de l’outil de détection Hive (à droite) pour affirmer à tort qu’une vidéo de Benyamin Nétanyahou buvant un café est générée par IA (à gauche). (Capture d’écran via NewsGuard)

En réponse, des utilisateurs ont publié la vidéo accompagnée d’un résultat Hive indiquant que la vidéo était “susceptible d’être générée par IA”, avec une probabilité de 96,9%. Des utilisateurs des réseaux sociaux anti-israéliens et pro-iraniens ont affirmé que le résultat de Hive prouvait que Benyamin Netanyahu avait bien été tué. En réalité, la comparaison de la vidéo du café avec d’autres images et vidéos prises au même endroit a confirmé l’authenticité de la vidéo. Il semble qu’un filtre ou une légère retouche ait été appliqué à la vidéo, floutant légèrement son arrière-plan, ce qui aurait apparemment conduit Hive à la classer comme générée par IA. Hive n’a pas répondu à deux emails de NewsGuard l’interrogeant à ce sujet.

Manipulations non détectées

NewsGuard a également soumis les modèles à des tests de résistance afin de déterminer s’ils identifiaient comme générées par IA ou comme réelles des images légèrement retouchées avec de l’IA de manière purement cosmétique, et des images altérées par IA de façon à en modifier fondamentalement le sens. Dans la première catégorie, ScamAI était l’outil le plus susceptible d’identifier les images légèrement retouchées comme étant générées par IA. Dans la seconde catégorie, Sightengine était le plus susceptible de classer les images significativement altérées comme réelles. 

Interrogé à ce sujet, Dennis Ng, le fondateur de ScamAI, a déclaré à NewsGuard : “Si notre modèle IA détecte qu’un type de filtre (IA) a été appliqué sur cette véritable image, nous la classerons comme une image manipulée par IA”. Les retouches mineures, tout comme les modifications substantielles avec de l’IA, “laisseront la trace d’une édition par IA”, a-t-il expliqué.  

Le fondateur de Sightengine, David Lissmyr, a déclaré à NewsGuard que son modèle de base “est conçu pour signaler les images entièrement générées par IA ou fortement retouchées” et que la compagnie dispose de modèles plus avancés capables de détecter les retouches plus légères. Sightengine se présente sur son site comme offrant “la précision la plus élevée pour la détection de médias générés par IA”, en citant une étude de l’Université de Rochester et de l’Université du Kansas.

Deux images authentiques liées à la guerre en Iran retouchées par NewsGuard pour en modifier radicalement le sens.

Comme mentionné plus haut, Hive et Sightengine sont les deux seuls outils qui n’ont pas mal identifié des images authentiques. Dans le même temps, ces deux outils ont obtenu les moins bons résultats dans la détection des images significativement manipulées, les déclarant authentiques. Sightengine n’a correctement identifié que cinq des 15 images fortement altérées, soit un taux de détection de 33%. Hive a déterminé que neuf de ces images fortement altérées étaient fausses, soit un taux de détection de 73,33%. ScamAI en a correctement identifié 12 (80%), ZeroGPT en a identifié 14 correctement (93,33%), et AI or Not a obtenu un score parfait de 100%.

Hive n’a pas répondu à deux emails de NewsGuard cherchant à obtenir un commentaire. Sur son site web, l’entreprise affirme qu’“une étude indépendante de 2024 a établi que son modèle de détection des contenus générés par IA surpasse les modèles concurrents ainsi que l’analyse d’experts humains”.

En ce qui concerne l’évaluation des images légèrement retouchées par IA, ScamAI a labellisé 93% de ces images comme étant générées par IA, suivi de AI or Not à 87% et ZeroGPT à 80%. Pour Hive et Sightengine, les retouches légères étaient moins susceptibles de piéger les outils, qui n’ont signalé que 27% des images comme étant générées par IA. 

La variation des résultats — allant de 27% à 93% pour le même ensemble d’images — suggère que les outils appliquent des seuils différents pour déterminer ce qui constitue une manipulation par IA. Lorsque les outils de détection qualifient des images légèrement retouchées comme entièrement générées par IA, ils risquent de donner aux utilisateurs une mauvaise raison de rejeter des preuves visuelles authentiques.

Plusieurs outils, des résultats incohérents 

Les cinq outils se sont rarement accordés entre eux — sur 35 des 45 images testées, au moins un outil a rendu un verdict différent des autres. Ainsi, un utilisateur se tournant vers plusieurs outils pour obtenir une réponse claire se retrouverait probablement dans l’incertitude quant à ce qu’il doit croire.

Comment des outils de détection de l’IA ont classifié la vraie version et une version significativement altérée d’une image montrant des soldats israéliens à côté d’un missile iranien en Cisjordanie.

Par exemple, NewsGuard a testé une photographie d’un missile iranien manipulée par IA pour y inscrire le message “No Kings” (“pas de roi” en français). Trois des cinq outils l’ont classée comme générée par IA, tandis que deux l’ont identifiée comme réelle. (NewsGuard a constaté que des comptes pro-iraniens avaient accumulé des millions de vues sur une autre image d’un missile iranien manipulée par IA pour y faire apparaître la phrase “No Kings”, en référence aux manifestations anti-Trump, comme précédemment rapporté).

Comment les outils de détection d’IA ont classifié les versions authentiques et significativement modifiées d’une image montrant une distribution d’aide au Liban.

La variabilité des classifications effectuées par ces outils pour les mêmes visuels laisse entrevoir un problème plus profond : il n’existe pas de consensus dans le secteur sur ce qui constitue un contenu généré par IA, et les outils de détection eux-mêmes n’indiquent pas quel niveau de manipulation entraînera la classification d’un contenu comme généré par IA. Face au manque de clarté sur le fonctionnement des outils de détection de l’IA, les utilisateurs peuvent facilement mal interpréter les résultats.

Les conclusions de NewsGuard suggèrent que la vérification humaine pourrait être un élément important de tout effort visant à classer les images comme authentiques ou générées par IA. Des indicateurs tels que les anomalies visuelles, les incohérences contextuelles et la provenance d’une image — qui peuvent échapper aux outils — peuvent être tout aussi importants que les résultats des outils de détection de l’IA pour évaluer l’authenticité d’une image.

Rawad Baroud de ZeroGPT estime en effet que les résultats du modèle de l’entreprise ne devraient constituer qu’un élément d’un processus de vérification plus large. “Nous encourageons les journalistes, les chercheurs, et les fact-checkers à combiner les résultats de détection par IA avec la vérification des sources, la recherche d’image inversée, l’analyse des métadonnées, l’historique de publication et le reportage contextuel avant de tirer une conclusion”, a-t-il dit.

Méthodologie

NewsGuard a sélectionné 15 images liées à la guerre en Iran provenant de sources crédibles, notamment les agences de presse Reuters et Associated Press, les quotidiens The New York Times et The Guardian, ainsi que les images satellite de Google Earth. 

Chaque image a été modifiée de deux manières : 

  • Légèrement retouchée : NewsGuard a soumis l’image à un outil d’IA avec la consigne “Améliore l’éclairage de cette image et floute les éléments inutiles en arrière-plan”. 
  • Significativement modifiée : NewsGuard a soumis l’image à un outil d’IA avec une consigne lui demandant de modifier l’image de manière à en changer le sens, en s’inspirant de fausses affirmations ayant circulé en ligne pendant la guerre en Iran. Ces consignes comprenaient notamment : “Modifie cette image pour montrer un missile frappant le navire et montre-le commençant à couler, de manière réaliste” ; “Ajoute de la fumée s’élevant comme si la centrale nucléaire avait été détruite” ; “Change les drapeaux pour que l’image semble avoir été prise en Israël” ; et “Modifie les inscriptions et le drapeau sur cet avion pour lui donner l’apparence d’un appareil opéré par l’Iran”. 

Sur les 15 images, cinq ont été modifiées avec ChatGPT d’OpenAI, cinq avec Gemini de Google, et cinq avec Grok de xAI. Les images modifiées avec Gemini ont été recadrées pour supprimer le filigrane.

NewsGuard a soumis les 45 images — 15 réelles, 15 légèrement retouchées et 15 significativement modifiées — aux outils de détection de l’IA Hive, AI or Not, ZeroGPT, Sightengine et ScamAI, en utilisant le modèle gratuit ou le moins coûteux pour chaque outil.

Quand un modèle a estimé à plus de 50% la probabilité qu’une image ait été générée par IA, ce résultat a été classé comme “généré par IA”. Les images pour lesquelles la probabilité d’être générée par IA a été estimée à 49% ou moins ont été classées comme “réelles”.

Édité par Dina Contini et Eric Effron