Queer NLP: A Critical Survey on Literature Gaps, Biases and Trends

Ce sondage critique examine la littérature sur le NLP et les communautés LGBTQIA+, identifiant des tendances réactives et des lacunes méthodologiques tout en appelant à une approche plus proactive, inclusive et interdisciplinaire pour développer des technologies linguistiques plus justes.

Sabine Weber, Angelina Wang, Ankush Gupta, Arjun Subramonian, Dennis Ulmer, Eshaan Tanwar, Geetanjali Aich, Hannah Devinney, Jacob Hobbs, Jennifer Mickel, Joshua Tint, Mae Sosto, Ray Groshan, Simone Astarita, Vagrant Gautam, Verena Blaschke, William Agnew, Wilson Y Lee, Yanan Long

Publié Wed, 11 Ma
📖 5 min de lecture🧠 Analyse approfondie

Each language version is independently generated for its own context, not a direct translation.

🌈 Le Rapport sur l'IA et la Communauté Queer : Une Carte au Trésor des Manquements

Imaginez que la technologie du Traitement Automatique du Langage (NLP), c'est comme un immense chef cuisinier robot qui apprend à parler en avalant des montagnes de livres, de tweets et d'articles sur internet. Ce robot est devenu très fort pour écrire, traduire et répondre aux questions. Mais, comme il a appris en regardant le monde tel qu'il est (et non tel qu'il devrait être), il a aussi avalé tous nos préjugés, nos stéréotypes et nos erreurs.

Ce papier est une enquête menée par un groupe de chercheurs (dont beaucoup font partie de la communauté LGBTQIA+) pour vérifier si ce chef robot est juste envers les personnes queer (les lesbiennes, gays, bi, trans, queer, etc.).

Voici ce qu'ils ont découvert, expliqué avec des métaphores simples :

1. Le Problème : Le Robot est "Cécé" (Cisnormatif)

Le robot a grandi dans un monde où l'on pense souvent qu'il n'y a que deux genres (homme/femme) et que l'hétérosexualité est la seule norme.

  • L'analogie du miroir déformant : Quand une personne trans demande au robot de l'aider, le robot la regarde dans un miroir déformant. Il peut l'appeler par le mauvais nom, utiliser le mauvais pronom, ou pire, penser que son existence est "toxique" ou "haineuse" simplement parce qu'elle utilise des mots que le robot n'a jamais vus dans ses manuels scolaires.
  • Le résultat : Le robot efface les personnes queer, les stéréotypes, ou les traite comme des monstres.

2. Ce que les chercheurs ont trouvé (Les Tendances)

Ils ont lu 86 articles scientifiques publiés sur ce sujet. Voici le résumé de leur enquête :

  • 🇬🇧 Tout est en anglais : C'est comme si le chef cuisinier ne parlait que l'anglais. Presque toutes les études se concentrent sur l'anglais. Les langues comme le français, l'espagnol ou les langues africaines et asiatiques sont presque ignorées. C'est un peu comme si on essayait de comprendre la cuisine du monde entier en ne goûtant que des plats américains.
  • 🔍 On cherche les problèmes, on ne les règle pas : La plupart des chercheurs agissent comme des pompiers qui attendent que le feu prenne pour venir éteindre l'incendie. Ils disent : "Regardez, ce robot est méchant avec les personnes trans !" Mais ils font rarement le travail de reconstruction pour créer un robot qui ne serait jamais méchant dès le départ. C'est une approche "réactive" (on réagit) plutôt que "proactive" (on prévient).
  • 🧩 Les pièces manquantes (Les Lacunes) :
    • Pas de consultation : Les chercheurs construisent ces robots sans jamais demander aux personnes concernées (les personnes queer) ce qu'elles en pensent. C'est comme si un architecte construisait une maison pour une famille sans jamais parler à la famille pour savoir de quelles pièces elle a besoin.
    • Pas de mélange : On étudie souvent la "transidentité" ou l'homosexualité séparément, sans voir comment elles se mélangent avec la race, la religion ou le handicap. C'est comme regarder un arc-en-ciel en ne voyant que le rouge, puis seulement le bleu, sans jamais voir le spectre complet.

3. Les Exemples Concrets de Dérives

  • Les insultes mal comprises : Si vous écrivez "Je suis gay", le robot peut parfois penser que c'est une insulte et vous bloquer, car il ne comprend pas le contexte.
  • La traduction ratée : Si vous traduisez "Ils sont mariés" (deux hommes) d'une langue neutre vers le français, le robot va souvent choisir "Ils sont mariés" (homme/femme) par défaut, effaçant ainsi la réalité du couple.
  • La voix : Les robots qui reconnaissent la voix (comme Siri ou Alexa) ont du mal avec les voix transgenres. Ils peuvent refuser de comprendre une voix qui ne correspond pas à leur idée fixe de "voix d'homme" ou "voix de femme".

4. La Solution : Comment réparer le robot ?

Les auteurs ne se contentent pas de pointer du doigt ; ils appellent à une révolution :

  • 🤝 Inviter les invités à la table : Il faut que les personnes queer participent à la création des robots, pas seulement à la critique. Elles doivent être les architectes, pas juste les victimes.
  • 🌍 Parler toutes les langues : Il faut arrêter de se concentrer uniquement sur l'anglais et créer des outils pour le français, le portugais, le hindi, etc.
  • 🚫 Accepter le refus : C'est le point le plus important et le plus philosophique. Parfois, les personnes queer ne veulent pas être classées, étiquetées ou mesurées par une machine. Elles veulent pouvoir dire "Non, je ne rentre pas dans votre case". Le défi pour les chercheurs est de créer des systèmes qui respectent ce droit de dire "non" et de rester flous, plutôt que de forcer tout le monde à choisir une case "Homme" ou "Femme".

En résumé

Ce papier est un cri d'alarme et un plan d'action. Il dit : "Notre technologie actuelle est malade de ses préjugés. Nous avons passé trop de temps à constater les dégâts. Maintenant, il faut construire un monde numérique où les personnes queer ne sont pas seulement tolérées, mais où elles sont au cœur de la conception, avec toutes leurs nuances, leurs langues et leurs choix."

C'est un appel à transformer l'IA d'un miroir déformant en un miroir qui reflète la vraie beauté et la vraie diversité de l'humanité.