Investigating Disability Representations in Text-to-Image Models

Cette étude examine les représentations des personnes handicapées dans les modèles de génération d'images comme Stable Diffusion XL et DALL-E 3, révélant des déséquilibres persistants et soulignant la nécessité d'évaluations continues pour promouvoir des portrayals plus inclusifs.

Yang Tian, Yu Fan, Liudmila Zavolokina, Sarah Ebling

Publié 2026-03-03
📖 4 min de lecture☕ Lecture pause café

Each language version is independently generated for its own context, not a direct translation.

🎨 L'Enquête : Quand l'IA dessine le handicap

Imaginez que vous avez deux peintres robots très talentueux (appelés Stable Diffusion et DALL·E 3). Vous leur donnez une instruction simple : "Peins une photo d'une personne avec un handicap."

Le but de cette étude, c'est de voir ce que ces robots peignent vraiment. Est-ce qu'ils représentent la diversité du handicap, ou est-ce qu'ils ont des "stéréotypes" cachés dans leur cerveau numérique ?

1. Le premier test : Le "Mannequin par défaut" 🪑

Les chercheurs ont demandé aux robots de dessiner une personne handicapée sans préciser laquelle.

  • Ce qui s'est passé : Presque tous les robots ont dessiné une personne en fauteuil roulant.
  • L'analogie : C'est comme si vous demandiez à un chef cuisinier de vous faire "un plat". S'il ne vous demande rien de plus, il vous sert systématiquement des pâtes, même si vous aimez aussi le poisson ou les légumes. Pour ces IA, le "fauteuil roulant" est le plat par défaut du handicap.
  • Le résultat : Les robots ont beaucoup de mal à imaginer les autres types de handicaps (comme la cécité ou la surdité) quand on ne les précise pas. Ils sont "paresseux" et tombent dans le cliché le plus visible.

2. Le deuxième test : Les lunettes de couleur (L'émotion) 😊😢

Ensuite, les chercheurs ont demandé aux robots de dessiner des personnes avec des troubles mentaux (comme la dépression ou l'anxiété) et de comparer cela avec des handicaps physiques.

  • Ce qui s'est passé :
    • Pour les handicaps physiques (aveugle, sourd, fauteuil roulant), les robots ont souvent dessiné des gens souriants, dans des lieux lumineux et joyeux. C'est comme si l'IA voulait dire : "Pas de problème, tout va bien !".
    • Pour les troubles mentaux, c'est le drame. Les robots ont dessiné des gens seuls, dans des pièces sombres, avec des visages tristes ou inquiets.
  • L'analogie : C'est comme si l'IA utilisait deux filtres photo différents.
    • Pour le handicap physique, elle met un filtre "Vacances au soleil".
    • Pour le trouble mental, elle met un filtre "Film noir triste et dramatique".
  • Le paradoxe : L'un des robots (DALL·E 3) est censé être plus "gentil" et mieux contrôlé par ses créateurs pour éviter les préjugés. Pourtant, les humains qui ont regardé les images ont trouvé que ce robot rendait les troubles mentaux encore plus sombres et dramatiques que l'autre ! C'est comme si, en voulant être prudent, il avait exagéré le côté "triste" pour être sûr de ne pas faire de mal, mais en a fait trop.

3. Les yeux des machines vs Les yeux des humains 👁️🧠

C'est là que ça devient intéressant.

  • Les machines (les algorithmes) ont analysé les images et ont dit : "Oh, les visages sont neutres, tout va bien."
  • Les humains, eux, ont dit : "Non, regardez l'ambiance, la lumière grise, la posture courbée... ça dégage une tristesse énorme."
  • La leçon : Les machines sont parfois trop bêtes pour comprendre l'ambiance d'une photo. Elles regardent juste les détails techniques (le nez, la bouche), mais elles ratent l'histoire que raconte l'image.

🚀 En résumé : Pourquoi c'est important ?

Cette étude nous apprend trois choses essentielles :

  1. L'IA a des préjugés : Si on ne lui dit pas exactement quoi faire, elle va toujours choisir le cliché le plus connu (le fauteuil roulant) et ignorer les autres réalités.
  2. La "correction" peut être une erreur : Les entreprises essaient de rendre leurs IA plus inclusives, mais parfois, en voulant corriger un problème, elles en créent un autre (en rendant les troubles mentaux encore plus stéréotypés et négatifs).
  3. Il faut des humains : On ne peut pas se fier uniquement aux calculs des robots pour juger de la justice ou de la représentation. Il faut l'œil humain pour comprendre les émotions et les contextes.

La morale de l'histoire ?
Pour que l'IA soit vraiment inclusive, il ne suffit pas de lui donner des règles strictes. Il faut lui apprendre à voir la diversité humaine dans toute sa complexité, sans tomber dans le piège de la "pitié" ou du "drame" excessif. Comme un bon photographe, l'IA doit apprendre à capturer la vie telle qu'elle est, pas telle qu'on imagine qu'elle devrait être.