Comment distinguer une allusion générée par IA ? Face à l’perfectionnement impérissable des logiciels de insémination d’allusion, les réflexes de localisation que l’on pouvait surtout rassembler initialement de l’transformation de ces technologies – distinguer des mains mal faites ou les visages incohérents – semblent déjà dépassés.
De varié internautes se tournent désormais patte des outils de localisation. Gratuits et agréablement accessibles en arête, ils sont varié à engager des résultats “fiables” et “précis”. Mais ces derniers s’avèrent temporairement incorrects, semblable trompeurs, lorsqu’on les teste sur des images générées par IA, purement donc sur des images réelles.
À deviner doncImages et complicité artificielle : pardon distinguer la désinformation
Des “faux négatifs”
La narration des Observateurs de France 24 a testé les dix rudimentaires détecteurs trouvés en arête en exact sur Google “détecteurs images IA”, sur des images ou bien réelles, ou bien fausses. À quelque jour, hétérogènes détecteurs se sont trompés chez à elles résultats.
C’est le cas par abrégé des quelques images générées par IA utilisées verso ce pratique, l’une censée présenter Nicolas Maduro et l’divergent Jeffrey Epstein. Ces quelques visuels, devenus viraux eux-mêmes paye et identifiés dans vivant générés par IA par de varié médias de renouvellement (ici et ici), ont été identifiés dans générés par IA par moins de la demi des détecteurs testés.
La commencement représentait le monarque vénézuélien Nicolas Maduro, capturé le 3 janvier par les Justificatifs-Unis, sortant d’un supersonique enclavé de quelques soldats américains. Notre pratique exposé que six outils sur dix, ou bien avec de la demi, ont franc inexactement que cette allusion trouvait effective. Parmi ces regrettable résultats, divers déclarent que le oculomoteur est “100 % humain” (Isgen.ai), ou privilège qu’il s’agit d’une “photographie humaine” à “99,99 %” (Mydetector.AI).
Même truc verso une allusion censée présenter le pédocriminel Jeffrey Epstein surtout subsistant à Tel Aviv en 2026 (il est trépassé en enfermement en août 2019) : cette fois-ci, sept détecteurs n’ont pas indéniable qu’sézig avait été générée par IA.
“Le développement de logiciels de détection par IA est complexe”
Ces cas où les outils échouent à ressentir une allusion générée par IA – on les trajet des “faux négatifs” – s’expliquent par la note même laquelle ces outils fonctionnent et sont “entraînés” : “la majorité des détecteurs d’IA en ligne fonctionnent comme des classificateurs : ils déterminent si une image est naturelle ou synthétique”, explique Tina Nikoukhah, vice-présidente Recherche comme GetReal Security, firme de cybersécurité spécialisée chez la renouvellement de l’vérité des nation et des contenus digitaux.
S’appuyant sur des algorithmes d’dégrossissage instinctif, ces outils sont entraînés sur des bases de hasard massives composées à la jour d’images réelles et d’images générées par IA. Mais dès lorsque, la compétence de ces outils dépend très des bases de hasard d’parangon : “le développement de logiciels de détection par IA est complexe et parfois, les détecteurs d’IA n’ont pas été entraînés sur le type d’images que l’on veut analyser”, explique Tina Nikoukhah.
La chirurgien met par abrégé en précédemment la caractéristique des outils de insémination d’images générées par IA – de l’ustensile Nano Banana de Google à Dall-E de ChatGPT, qui produisent chaque homme des bonshommes d’images spécifiques. “Selon leur entraînement, des outils pourront par exemple être efficaces pour détecter les images créées par un générateur d’IA en particulier, mais pas par un autre”.
Le temps de vie des images en arête risque pareillement un devoir décisif. Souvent redimensionnées, modifiées, compressées, ces images perdent au fur et à gestionnaire divers signes exploités par les détecteurs. Plusieurs sociétés à l’naissance de ces outils, dans ZeroGPT ou Rephrasy, l’ont vrai à à nous narration. La même inventée allusion de Jeffrey Epstein subsistant en 2026 en maquette avec copieux est par abrégé davantage détectée par divers détecteurs.
Difficile finalement de fixer temporairement ce que ces outils qui classifient convaincu Vrai et Faux ont matériellement “appris” à flanc à elles parangon : “En réalité, on ne sait parfois pas pourquoi un outil a détecté une image comme vraie ou fausse”, pousse Tina Nikoukhah. Par abrégé, si j’entraîne mon ustensile à manquer de très de photos générées par IA de drapeaux, probablement que l’ustensile sera déformé et classifiera avec agréablement les photos de drapeaux dans fausses.”
De vraies photos détectées à tort comme de l’IA
Pour Tina Nikoukhah, ces outils doivent en réalité s’inscrire dans un dispositif de détection plus large, reposant sur plusieurs algorithmes capables de s’adapter à différentes situations. “C’est comme en médecine : pour diagnostiquer une maladie, on ne se repose pas sur un seul examen, mais sur plusieurs techniques, de l’IRM au scanner.”
Plusieurs des outils interrogés reconnaissent ne pas pouvoir détecter toutes les images générées par IA. “Notre modèle peut temporairement abstraction coléreux de répertorier une allusion générée par IA dans provenant d’un compréhensif”, indique par exemple l’entreprise Isgen.IA, sollicitée par notre rédaction, dont l’outil n’a détecté aucune des deux images ci-dessus. “Mais en compensation, les gens obtenons une virtuosité simplement abbesse sur les images humaines. Cela les gens permet de ne pas répertorier inexactement des œuvres humaines, ce qui pourrait garder des conséquences surtout avec pourpre.”
Car plusieurs des outils testés peuvent produire aussi ce qu’on appelle des “simulé positifs”, c’est-à-dire des résultats qui affirment à tort qu’une image réelle est générée par IA. Notre rédaction a fait le test avec plusieurs photos publiées en ligne par des personnalités politiques. Une photo d’Emmanuel Macron publiée lors d’une réunion de chefs d’État en décembre 2025 a par exemple été détectée par trois outils comme étant générée par IA.
Quatre outils ont également jugé fausse une photo publiée en octobre 2025 par le désormais maire de Paris, Emmanuel Grégoire. Pour l’ex-candidate aux municipales de mars 2026 à Paris Rachida Dati, ce sont même six outils qui ont affirmé à tort qu’une photographie publiée sur son calculé X patte la même ancienneté, trouvait générée par IA.
Aucun de ces simulé positifs n’a eu d’suite sur le réunion éprouvé. Mais ils peuvent assurer tracas : dans de quelques regrettable résultats d’outils de localisation qui avaient détecté inexactement de l’IA chez une photographie publiée par Jean-Luc Mélenchon, le sérieux de La France espiègle (LFI) avait été précédé d’garder accessoire des drapeaux gaulois sur un lapalissade remarquable une production au prix de l’islamophobie en mai 2025. La photographie, privilège effective, avait été exclusivement retouchée sur les contrastes et la incandescence par l’ustensile de modification Adobe, qui utilise de avec en avec l’IA verso ce marqué de révolution.
L’entreprise Sightengine, à l’naissance d’un des simulé positifs, avait à l’siècle utile que son ustensile pouvait deviner à la jour “les images entièrement générées par IA, mais aussi les photos réelles qui comportent des éléments générés ou modifiés par IA” – rien nonobstant expliquer cette différence chez les résultats présentés à un usager qui ferait le pratique.
À deviner doncPourquoi Jean-Luc Mélenchon est précédé inexactement d’garder publié une allusion générée par IA
Combiner ces résultats à d’différentes méthodes
Au-delà de ces résultats temporairement simulé, ces détecteurs sont donc critiqués verso à elles carême de clarté sur les résultats donnés par ces détecteurs et les raisons croupe à elles décisions. L’un des outils interrogés, Rephrasy, les gens indique que à nous pratique va mettre en marche l’firme à davantage contextualiser les résultats, particulièrement verso expliquer “quand un résultat risque de ne pas être fiable”.
À l’allusion de ZeroGPT, hétérogènes de ces outils estiment par autre part qu’il est “préférable de combiner les résultats des détecteurs avec la vérification des sources, la vérification de la provenance lorsque cela est possible, la recherche par image inversée et un examen éditorial effectué par des humains.”
Auteur d’un duègne sur les méthodes de localisation d’allusion générée par IA en septembre 2025 et à l’naissance de l’ustensile ImageWhisperer, qui propose à la jour localisation par IA et contextualisation de l’allusion et de son naissance en arête, Henk Van Ess considéré pareillement contre de la narration des Observateurs qu'”un détecteur ne résoudra pas ce type de problème par lui-même, tout comme un journaliste aura du mal à détecter une image sans savoir technique. L’objectif est de faire en sorte que ces deux approches soient associées”.

Comments are closed.