GeoDiv: Framework For Measuring Geographical Diversity In Text-To-Image Models

Le papier présente GeoDiv, un cadre d'évaluation innovant utilisant des modèles de langage et de vision pour révéler les biais socio-économiques et le manque de diversité géographique dans les images générées par des modèles de type Text-to-Image, en montrant que des pays comme l'Inde, le Nigeria et la Colombie sont systématiquement représentés de manière appauvrie.

Abhipsa Basu, Mohana Singh, Shashank Agnihotri, Margret Keuper, R. Venkatesh Babu

Publié 2026-02-26
📖 5 min de lecture🧠 Analyse approfondie

Each language version is independently generated for its own context, not a direct translation.

🌍 GeoDiv : Le "Détective de la Diversité" pour les Images Générées par IA

Imaginez que vous demandez à un artiste robot (une Intelligence Artificielle) de dessiner une maison ou une voiture.

  • Si vous dites "une maison au Japon", l'artiste dessine-t-il une maison moderne avec des toits en tuiles ?
  • Si vous dites "une maison au Nigeria", dessine-t-il une maison en terre battue, en béton, ou en tôle ?

Le problème, c'est que ces artistes robots ont souvent un "stéréotype" caché dans leur cerveau. Ils ont tendance à dessiner le Japon comme un pays riche et propre, et le Nigeria comme un pays pauvre et délabré, même si la réalité est bien plus complexe et variée.

C'est là qu'intervient GeoDiv. C'est un nouveau cadre de travail (un outil de mesure) créé par des chercheurs pour vérifier si ces robots sont équitables ou s'ils renforcent des préjugés.

🕵️‍♂️ L'Analogie du "Détective à Double Lunettes"

Pour comprendre comment GeoDiv fonctionne, imaginez qu'il porte deux paires de lunettes spéciales pour examiner les images générées par l'IA :

1. Les Lunettes "Richesse et Propreté" (SEVI)
Ces lunettes ne regardent pas seulement ce qui est dessiné, mais dans quel état cela semble être.

  • La question : Est-ce que la maison ressemble à un palace luxueux ou à une cabane en ruine ? Est-elle bien entretenue ou abîmée ?
  • La métaphore : C'est comme un inspecteur immobilier qui note si le quartier est "huppé" ou "délabré".
  • Ce que GeoDiv a découvert : L'IA a un biais terrible. Pour des pays comme l'Inde, le Nigeria ou la Colombie, l'IA dessine presque systématiquement des scènes pauvres et usées. Pour les États-Unis, le Japon ou le Royaume-Uni, elle dessine des scènes propres, luxueuses et parfaites. C'est comme si l'IA pensait que certains pays n'existaient que dans la pauvreté.

2. Les Lunettes "Variété Visuelle" (VDI)
Ces lunettes regardent la diversité des détails.

  • La question : Si je demande 100 voitures au Nigeria, est-ce que l'IA dessine 100 fois la même voiture rouge sur une route de terre ? Ou est-ce qu'elle varie les couleurs, les modèles et les routes (pavées, en gravier, etc.) ?
  • La métaphore : Imaginez un chef cuisinier qui doit préparer 100 plats pour différents pays. S'il fait toujours le même plat (du riz blanc) pour tout le monde, c'est ennuyeux et faux. GeoDiv vérifie si le chef a de la variété dans son menu.
  • Ce que GeoDiv a découvert : L'IA manque cruellement d'imagination. Pour beaucoup de pays, elle répète les mêmes décors (routes en terre pour l'Afrique, routes pavées pour l'Europe) et les mêmes objets.

🤖 Comment GeoDiv "lit" les images ?

Au lieu de demander à des humains de regarder des milliers d'images (ce qui prendrait des années), GeoDiv utilise des super-assistants intelligents (des modèles de langage comme ceux qui font fonctionner les chatbots).

  1. Le Questionnaire : GeoDiv pose des questions précises aux images générées. "Quelle est la couleur de la voiture ?", "La route est-elle en asphalte ou en terre ?", "La maison a-t-elle un toit en pente ou plat ?".
  2. Le Calcul : Il analyse les réponses. Si toutes les voitures du Nigeria sont rouges et sur de la terre, le score de diversité est bas. S'il y a du bleu, du vert, du noir, et des routes variées, le score est haut.
  3. Le Verdict : Il produit un rapport clair montrant où l'IA est biaisée.

📉 Les Résultats Choc

L'étude a testé 4 robots artistes populaires (comme Stable Diffusion et FLUX) sur 16 pays et 10 objets (maisons, voitures, chiens, etc.). Voici ce qu'ils ont trouvé :

  • Le biais de la pauvreté : Les pays en développement sont presque toujours représentés comme misérables, même quand on demande simplement "une photo d'une voiture".
  • Le piège de la perfection : Le modèle le plus récent et le plus "beau" (FLUX.1) dessine des images très propres et riches partout, mais c'est un problème ! En rendant tout le monde "riche et propre", il efface la vraie diversité culturelle et économique du monde. C'est comme peindre tout le monde avec le même maquillage : ça fait joli, mais ce n'est pas la réalité.
  • Le manque de détails : Les arrière-plans (les rues, les paysages) sont souvent identiques d'un pays à l'autre, ce qui rend les images artificielles et stéréotypées.

🚀 Pourquoi c'est important ?

Imaginez que ces images servent à entraîner d'autres intelligences artificielles ou à montrer le monde aux gens. Si l'IA nous montre toujours l'Afrique comme un désert de pauvreté, cela renforce des idées fausses et dangereuses dans notre société.

GeoDiv est comme un "test de réalité". Il permet aux créateurs d'IA de dire : "Oh, notre modèle dessine trop de maisons en ruine pour l'Inde. On doit corriger ça pour qu'il montre aussi des maisons modernes, des villages, des villes, etc."

En résumé, GeoDiv ne cherche pas juste à savoir si une image est "jolie". Il cherche à savoir si elle est juste et représentative de la vraie diversité de notre monde, en évitant de tomber dans les pièges des stéréotypes. C'est un pas vers une IA plus humaine et plus équitable.

Recevez des articles comme celui-ci dans votre boîte mail

Digests quotidiens ou hebdomadaires personnalisés selon vos intérêts. Résumés Gist ou techniques, dans votre langue.

Essayer Digest →