Leveraging Wikidata for Geographically Informed Sociocultural Bias Dataset Creation: Application to Latin America

Ce papier présente la création de la base de données LatamQA, un ensemble de plus de 26 000 questions à choix multiples en espagnol et portugais dérivé de Wikidata et de Wikipédia, utilisé pour révéler les biais socioculturels et géographiques des grands modèles de langage envers les pays d'Amérique latine par rapport à l'Espagne.

Yannis Karmim (ALMAnaCH), Renato Pino (UCHILE), Hernan Contreras (UCHILE), Hernan Lira (CENIA), Sebastian Cifuentes (CENIA), Simon Escoffier (PUC), Luis Martí (UP4, ALPAGE), Djamé Seddah (UP4, ALPAGE), Valentin Barrière (UCHILE, CENIA)

Publié 2026-03-12
📖 4 min de lecture☕ Lecture pause café

Each language version is independently generated for its own context, not a direct translation.

Imaginez que les grands modèles d'intelligence artificielle (comme ceux qui animent les chatbots) sont comme des étudiants brillants, mais qui ont passé leur enfance à lire uniquement des livres écrits en Europe du Nord et aux États-Unis.

Ce papier de recherche, intitulé LatamQA, pose une question simple : Ces étudiants savent-ils vraiment qui sont leurs voisins d'Amérique latine ?

Voici l'histoire de leur enquête, racontée simplement.

1. Le Problème : L'aveugle culturel

Les chercheurs ont remarqué que ces intelligences artificielles sont très fortes pour parler de la culture américaine ou européenne, mais qu'elles commettent des erreurs grossières ou ignorent complètement les réalités de l'Amérique latine (le Mexique, le Brésil, l'Argentine, etc.). C'est un peu comme si un expert en cuisine française ne savait pas ce qu'est un taco ou un feijoada, alors qu'il vit à côté de ces cultures.

Le problème est que la plupart des données utilisées pour entraîner ces robots viennent du "Nord" (les pays riches), laissant le "Sud" (l'Amérique latine) dans l'ombre.

2. La Solution : Construire un "Quiz Géant"

Pour tester ces robots, les chercheurs ont dû créer un examen sur mesure. Mais comment faire un examen sur 20 pays différents sans y passer dix ans ?

Ils ont eu une idée de génie : utiliser Wikipédia comme une mine d'or.

  • L'ingrédient secret : Ils ont utilisé la structure de Wikipédia (les catégories et les liens) comme une carte au trésor.
  • Le filtre humain : Pour éviter de poser des questions triviales (comme "Combien de buts a marqué tel joueur ?"), ils ont fait appel à des sociologues (des experts de la société humaine). Ces experts ont dit : "Non, on ne veut pas de statistiques de foot, on veut des questions sur l'identité, la nourriture, les fêtes et les traditions."
  • Le résultat : Ils ont créé LatamQA, une base de données de 26 000 questions à choix multiples. C'est un véritable marathon de quiz couvrant 20 pays, en espagnol et en portugais.

3. L'Expérience : Le Test de Vérité

Une fois le quiz prêt, ils l'ont donné à plusieurs modèles d'intelligence artificielle (des "étudiants" de différentes tailles et origines) pour voir qui réussirait le mieux.

Voici les trois grandes découvertes, expliquées avec des métaphores :

A. L'effet "Langue Maternelle"

  • La découverte : Les modèles réussissent beaucoup mieux quand on leur pose les questions dans leur langue d'origine (l'espagnol ou le portugais) plutôt qu'en anglais.
  • L'analogie : C'est comme demander à quelqu'un de résoudre un casse-tête complexe. S'il le fait dans sa langue maternelle, il comprend les nuances. S'il doit le faire dans une langue qu'il a apprise à l'école, il rate des détails subtils.

B. Le Biais "Ibérique" (Espagne vs Amérique Latine)

  • La découverte : Même en espagnol, les modèles sont beaucoup plus forts sur la culture de l'Espagne que sur celle de l'Amérique latine.
  • L'analogie : Imaginez un professeur d'histoire qui a étudié uniquement Paris. Si vous lui demandez des détails sur la culture de Paris, il est excellent. Mais si vous lui demandez des détails sur la culture de Lyon ou de Marseille (qui sont pourtant en France), il commence à bégayer. Les modèles savent tout sur l'Espagne, mais ils sont un peu perdus face à la diversité du Mexique, du Chili ou de l'Argentine.

C. La Taille compte, mais pas tout

  • La découverte : Les modèles plus gros (avec plus de "cerveau") réussissent mieux, mais la différence n'est pas énorme.
  • L'analogie : Avoir un cerveau plus grand aide, mais si ce cerveau n'a jamais lu les livres sur l'Amérique latine, il restera ignorant, peu importe sa taille.

4. Pourquoi c'est important ?

Ce papier nous dit qu'il ne suffit pas de créer des robots intelligents ; il faut s'assurer qu'ils sont inclusifs.

Si nous laissons ces biais continuer, nos futurs assistants IA risquent de :

  1. Ignorer les réalités locales.
  2. Renforcer les stéréotypes.
  3. Être moins utiles pour les gens d'Amérique latine.

En résumé

Les chercheurs ont construit un miroir géant (le quiz LatamQA) pour montrer aux développeurs d'IA où ils ont les yeux bandés. Ils nous disent : "Hé, votre robot est brillant, mais il ne connaît pas son propre voisinage. Il faut lui apprendre à mieux comprendre la richesse et la diversité de l'Amérique latine, pas seulement celle de l'Europe."

C'est un appel à rendre l'intelligence artificielle plus juste, plus locale et plus humaine.