Aller au contenu principal

InformationsPublié le 29 janvier 2026

Vrai ou faux? Ce que la recherche nous apprend.

Le Cyber-Defence Campus d’armasuisse Sciences et technologies (S+T) publie de nouvelles études sur la difficulté croissante d’identifier des images générées par l’intelligence artificielle (IA). Ce projet de recherche conjoint du Cyber-Defence Campus et de la Haute école spécialisée du nord-ouest de la Suisse (FHNW) porte sur l’utilisation croissante des images générées par IA et sur les artefacts subtils qui les distinguent des images réelles.

Andrea Thäler, Domaine spécialisé Cyberdéfense, domaine de compétence armasuisse Science et Technologie

Portrait synthétique d’une femme présentant de légères irrégularités au niveau de l’œil gauche, des cheveux, des dents et de la forme de l’oreille gauche.

L’intelligence artificielle a révolutionné la création d’images numériques. De ce fait, les images synthétiques photoréalistes sont de plus en plus répandues et utilisées dans divers domaines, par exemple le divertissement ou la publicité. Toutefois, cette technologie favorise également des usages abusifs, comme la diffusion d’informations fausses ou trompeuses par le biais d’images qui paraissent authentiques, mais qui sont en réalité falsifiées.

Les images générées par IA sont de plus en plus réalistes, ce qui rend la distinction entre des contenus authentiques et synthétiques toujours plus difficile. C’est pourquoi le Cyber-Defence Campus et la Haute école spécialisée du nord-ouest de la Suisse (FHNW) ont mené, dans le cadre d’un projet de recherche conjoint, des études sur les capacités d’analyse des modèles de diffusion génératifs modernes, en mettant l’accent sur leurs points faibles. L’une des études est consacrée aux difficultés liées à l’identification des contenus synthétiques. Elle souligne l’importance de repérer des erreurs mineures, mais essentielles, telles que des irrégularités dans l’anatomie humaine, l’incidence de la lumière et la symétrie des objets. Ces erreurs subtiles, qui peuvent échapper à un œil non averti, fournissent des indices essentiels pour distinguer les images générées par IA des images réelles.

Les études examinent l’utilisation de modèles génératifs de deep learning, y compris les modèles de diffusion, pour la création d’images synthétiques à des fins potentielles de tromperie, d’influence et d’infiltration lors d’opérations cyber. Bien que l’IA soit capable de générer des illustrations de haute qualité et des contenus visuels non réalistes, l’obtention de résultats photoréalistes demeure extrêmement difficile. Cela s’explique par les capacités de calcul limitées et la nécessité d’une retouche humaine. L’accessibilité et la facilité d’utilisation de ces outils suscitent des inquiétudes quant à leur usage abusif, notamment pour la diffusion de désinformation, de fausses informations et de tromperie numérique. Les conclusions de la deuxième étude, portant sur la problématique de la détection des photos synthétiques, sont présentées ci-après.

Indices cachés dans les images générées par IA

Même si les modèles d’IA ne cessent de s’améliorer, ils sont encore des difficultés à générer certains détails. L’étude a identifié des erreurs typiques dans les images synthétiques, appelées artefacts, qui pouvaient fournir des indices essentiels sur l’origine synthétique. Ces erreurs ont ensuite été classées dans une taxonomie complète. Elles surviennent souvent du fait que les modèles génératifs sont incapables de reproduire avec une précision totale des structures visuelles complexes. Voici certains des problèmes les plus fréquents:

Erreurs dans l’anatomie humaine

L’IA génère souvent des mains avec trop ou trop peu de doigts, un positionnement non naturel des doigts ou des traits du visage asymétriques. Les oreilles, les yeux et les dents peuvent également être déformés ou mal positionnés.

Irrégularités de la lumière

Les ombres et les reflets peuvent paraître non naturels, car le comportement des sources lumineuses est différent de celui d’un environnement naturel. Certaines mises en valeur du visage ou d’objets peuvent être mal placées, donnant ainsi une impression artificielle.

Absence de symétrie

Les objets peuvent être légèrement déformés ou mal agencés, rendant asymétriques des objets symétriques – par exemple, les rétroviseurs d’un véhicule – ou des structures répétitives peuvent être reproduites de manière inégale, par exemple des garde-corps ou des clôtures présentant des espacements irréguliers.

Même si ces erreurs peuvent sembler subtiles, elles deviennent évidentes lorsqu’on les examine de plus près. Comme les images générées par IA ne cessent de s’améliorer, il est nécessaire de sensibiliser aussi bien les professionnels que le grand public à la détection de ces nuances subtiles afin de pouvoir distinguer les contenus réels des contenus synthétiques.

Importance de la sensibilisation et de la formation

La formation et la sensibilisation sont indispensables pour contrer les risques liés aux images synthétiques. L’étude recommande de former spécifiquement les professionnels dans les domaines du journalisme, de l’exploitation du renseignement et de l’informatique légale afin qu’ils soient mieux à même de reconnaître les contenus générés par IA. La sensibilisation du grand public à la création d’images synthétiques peut également contribuer à réduire la diffusion de fausses informations et de manipulations.

Éviter les biais lors de l’analyse d’images

Lors de l’analyse d’images, deux erreurs majeures peuvent survenir: des «faux positifs», lorsque des images réelles sont identifiées à tort comme artificielles, et des «faux négatifs», lorsque des images générées par IA sont considérées à tort comme réelles. De telles erreurs peuvent entraîner de la désinformation, susciter de la méfiance et engendrer des conséquences graves dans des domaines tels que le journalisme, le droit ou la recherche. Les biais cognitifs, en particulier le biais de confirmation, peuvent fausser davantage l’analyse et conduire à identifier à tort des artefacts ou à négliger des signes évidents de manipulation. Il est possible de réduire la fréquence de ces erreurs en adoptant une approche systématique et impartiale et en utilisant des outils de détection modernes. Il est également important de sensibiliser les analystes d’images aux effets des biais cognitifs lors de la vérification des images.

Application pratique des résultats de l’étude

Les images générées par IA sont déjà utilisées aujourd’hui pour manipuler l’opinion publique, les marchés boursiers et même des événements politiques. Les images falsifiées peuvent servir à diffuser de fausses informations et à semer la confusion et la méfiance. Les contre-mesures pourraient consister en de nouvelles technologies de détection et en une meilleure compétence médiatique. Les documents et les conclusions de l’étude pourraient servir à:

  • soutenir des actions d’éducation et de formation dans les domaines de l’informatique légale, de l’exploitation du renseignement et du journalisme,
  • vérifier systématiquement les images pour y déceler des indices de génération par IA,
  • soutenir des campagnes de compétence médiatique,
  • élaborer de nouvelles lignes directrices et réglementations afin de prévenir l’usage abusif d’images synthétiques,
  • encourager de nouvelles recherches sur la détection automatique des images générées par IA.

Point de vue de la FHNW

À la FHNW, nous étudions l’IA dans des contextes où une recherche rigoureuse se heurte à des défis pratiques. En tant que chercheurs, nous sommes à la fois fascinés et préoccupés par les récents progrès de l’IA et leurs impacts potentiels sur notre société. Le CYD Campus soutient financièrement la recherche sur ces questions essentielles et réunit des experts de divers horizons afin de diriger des projets sur des thèmes ayant une portée pratique. Nous sommes fiers d’avoir pu étudier les faiblesses de l’IA générative et développer ensemble un workflow permettant aux praticiennes et aux praticiens d’identifier les images synthétiques. Nous adressons nos remerciements à toutes les personnes qui ont contribué au succès de ce projet, et plus particulièrement à Raphael Meier, qui nous a soutenus grâce à son expertise approfondie et à l’utilisation efficace de son réseau pour rapprocher science et pratique.

Images synthétiques de véhicules HIMARS. Les deux images ont été générées avec ControlNet, en utilisant les structures de contour d’images réelles comme modèles. L’image (A) a été produite avec le prompt «Photo d’un véhicule HIMARS sur une route de gravier par beau temps avec ciel bleu» et l’image (B) avec l’instruction «Photo d’un HIMARS à l’intérieur d’un grand bunker militaire avec des structures nettes et peu de lumière».

Plus d'information: