Evaluating Demographic Misrepresentation in Image-to-Image Portrait Editing

Cette étude révèle que les éditeurs d'images open-weight souffrent de biais démographiques systémiques lors du retouche de portraits, se manifestant par une élimination silencieuse des modifications ou par l'introduction de stéréotypes, et démontre qu'une contrainte de prompt peut atténuer ces disparités sans nécessiter de mise à jour du modèle.

Huichan Seo, Minki Hong, Sieun Choi, Jihie Kim, Jean Oh

Publié 2026-02-19
📖 5 min de lecture🧠 Analyse approfondie

Each language version is independently generated for its own context, not a direct translation.

Imaginez que vous avez un magicien numérique (une intelligence artificielle) capable de modifier vos photos. Vous lui dites : « Habille cette personne en chef d'entreprise » ou « Montre cette personne en train de vieillir de 30 ans ». Vous vous attendez à ce que le visage reste le même, mais que le contexte change.

C'est exactement ce que les auteurs de cette étude ont testé. Et la mauvaise nouvelle, c'est que ce magicien est un peu raciste, sexiste et un peu paresseux.

Voici l'explication de leur découverte, simplifiée avec des images du quotidien :

1. Le Magicien a deux défauts majeurs

Les chercheurs ont découvert que lorsque vous donnez les mêmes instructions à différentes personnes (noires, blanches, asiatiques, hommes, femmes), le résultat n'est pas équitable. Ils ont nommé deux types de trahisons :

  • L'Effacement Doux (Soft Erasure) : C'est comme si le magicien vous écoutait à moitié. Vous lui dites : « Mets cette personne en fauteuil roulant », et il vous rend la photo... sans fauteuil roulant. Il a fait le travail, mais il a ignoré votre demande principale, comme un serveur qui vous apporte le plat sans la sauce que vous aviez demandée. Cela arrive souvent pour les personnes issues de minorités ou dans des situations sensibles.
  • Le Remplacement par les Stéréotypes (Stereotype Replacement) : C'est encore plus étrange. Vous demandez : « Habille cette femme en médecin ». Le magicien accepte, mais il change aussi son visage. Il éclaircit sa peau, change la forme de son nez, et la rend plus « blanche » que dans la photo originale. C'est comme si le magicien pensait : « Ah, un médecin ? Ça doit être un homme blanc avec une peau claire, peu importe qui était sur la photo de départ ! ». Il remplace l'identité réelle de la personne par un cliché qu'il a appris.

2. L'expérience : Le test de la "Photo de Famille"

Pour prouver cela, les chercheurs ont créé un grand jeu de cartes.

  • Ils ont pris 84 photos de personnes très différentes (7 origines ethniques, 2 genres, 6 tranches d'âge).
  • Ils ont demandé à 3 magiciens différents (trois modèles d'IA populaires) de modifier ces photos avec 20 instructions différentes (devenir un PDG, vieillir, utiliser un fauteuil roulant, etc.).
  • Au total, ils ont généré 5 040 photos.

Le résultat ?

  • La peau s'éclaircit tout le temps : Pour les personnes à la peau foncée (noires, indiennes), la peau devient plus claire dans 72 à 75 % des cas. C'est comme si le magicien avait un bouton "blanchissant" automatique qu'il appuie sans qu'on lui demande.
  • Les visages changent de race : Une personne noire peut se retrouver avec des traits asiatiques ou blancs après l'édition.
  • Les métiers sont genrés : Si on demande de transformer une photo en "infirmière", l'IA la transforme en femme, même si la photo de départ était un homme. Si on demande "mécanicien", elle devient un homme, même si c'était une femme.

3. La solution "Bricolage" : Le Miroir de la Vérité

Le plus intéressant, c'est que les chercheurs ont trouvé un moyen de corriger le magicien sans le réparer.

Imaginez que le magicien a une mémoire courte et qu'il oublie à quoi vous ressemblez vraiment. Les chercheurs ont inventé une astuce : avant de donner l'instruction, ils ajoutent une note descriptive très précise.

  • Au lieu de dire juste : « Deviens un PDG ».
  • Ils disent : « Garde ta peau brun foncé, tes cheveux en tresses, ton nez large et tes yeux marron... et maintenant, deviens un PDG ».

Le résultat ?
C'est magique ! Quand on force le magicien à regarder la photo de départ et à décrire les détails physiques (la couleur de peau, la forme du nez), il arrête de changer la race des personnes noires ou asiatiques.

  • Pour les personnes blanches : Ça change à peine (car le magicien pensait déjà qu'elles étaient blanches).
  • Pour les autres : C'est une révolution. On retrouve leur vrai visage.

4. La leçon à retenir

Cette étude nous dit deux choses importantes :

  1. L'IA n'est pas neutre : Elle a intégré nos préjugés sociaux. Elle pense qu'un "chef" est blanc, qu'une "infirmière" est femme, et que la "beauté" ou la "normalité" c'est la peau claire.
  2. La responsabilité est partagée : Pour l'instant, c'est à l'utilisateur de faire le travail de "correction" en décrivant minutieusement la personne pour que l'IA ne la transforme pas. Mais à long terme, ce n'est pas normal. Ce devrait être le travail des créateurs de l'IA de s'assurer que leur magicien respecte l'identité de tout le monde, sans qu'on ait besoin de lui faire un cours de morale à chaque fois.

En résumé : L'IA actuelle est un photographe qui, quand il voit une personne noire, pense automatiquement "Je vais la rendre plus blanche et plus stéréotypée", sauf si vous lui tenez fermement la main et lui dites : "Non, regarde bien, c'est elle !"

Recevez des articles comme celui-ci dans votre boîte mail

Digests quotidiens ou hebdomadaires personnalisés selon vos intérêts. Résumés Gist ou techniques, dans votre langue.

Essayer Digest →