Gender Bias in Generative AI-assisted Recruitment Processes

Cette étude révèle que, bien que GPT-5 ne propose pas de postes différents selon le genre pour des diplômés italiens, il perpétue des biais de genre en attribuant des traits émotionnels aux femmes et des qualités analytiques aux hommes, soulevant ainsi des préoccupations éthiques quant à l'utilisation de l'IA générative dans le recrutement.

Martina Ullasci, Marco Rondina, Riccardo Coppola, Antonio Vetrò

Publié 2026-03-13
📖 4 min de lecture☕ Lecture pause café

Each language version is independently generated for its own context, not a direct translation.

🤖 Le Recruteur Robot et ses Préjugés Cachés

Imaginez que vous avez embauché un recruteur robot ultra-intelligent, nommé GPT-5. Ce robot a lu des millions de livres, d'articles et d'annonces de travail pour apprendre à trouver le meilleur candidat pour un poste. On lui demande : "Voici un profil, quel travail devrait-il faire ?"

L'idée derrière cette étude, c'est de vérifier si ce robot est neutre (comme un juge impartial) ou s'il est un miroir déformant qui reproduit les vieux clichés de notre société, surtout concernant les hommes et les femmes.

🧪 L'Expérience : 24 Personnages de Fiction

Les chercheurs ont créé 24 personnages fictifs (12 hommes et 12 femmes), tous jeunes diplômés italiens de moins de 35 ans.

  • Ils ont soigneusement équilibré les profils : même âge, même niveau d'études, même expérience (débutant ou confirmé).
  • La seule différence ? Le genre (Homme ou Femme).

C'est comme si on présentait deux jumeaux à un recruteur, l'un habillé en costume bleu, l'autre en robe rouge, pour voir si le recruteur leur propose le même emploi.

🔍 Ce que le Robot a Répondu (Les Résultats)

Voici ce qui s'est passé quand le robot a analysé ces profils :

1. Le Titre du Poste et le Secteur : Pas de gros changement 🏢

Le robot a proposé des titres de poste (comme "Ingénieur", "Manager", "Comptable") et des secteurs (comme "Technologie", "Industrie").

  • Résultat : Pour l'essentiel, il a proposé les mêmes types de métiers aux hommes et aux femmes. Il n'a pas dit systématiquement "Toi, tu seras mécanicien" et "Toi, tu seras infirmière".
  • L'analogie : C'est comme si le robot ne changeait pas la destination du voyage, il vous propose tous d'aller à Paris.

2. Les Mots pour Décrire les Personnes : Le vrai problème ! 🎨

C'est là que ça devient intéressant. Le robot devait décrire les candidats avec trois adjectifs. Et là, le robot a montré ses "clichés" :

  • Pour les femmes : Il a utilisé des mots liés aux émotions et à la relation.
    • Exemples : "Empathique", "Accessible", "Soutenante", "Coopérative".
    • L'image : Il imagine la femme comme une collaboratrice chaleureuse qui prend soin des autres.
  • Pour les hommes : Il a utilisé des mots liés au pouvoir, à la logique et à l'action.
    • Exemples : "Influent", "Persuasif", "Ambitieux", "Déterminé", "Fiable".
    • L'image : Il imagine l'homme comme un chef de guerre stratégique ou un leader rationnel.

La conclusion statistique : La différence dans les mots est si forte qu'elle ne peut pas être due au hasard. Le robot "pense" différemment selon le genre, même si le CV est identique.

⚠️ Pourquoi est-ce dangereux ?

Imaginez que ce robot soit utilisé par des entreprises pour trier des milliers de CVs.

  • Si le robot décrit les femmes comme "émotionnelles" et les hommes comme "stratégiques", il risque de pousser les femmes vers des postes de soutien (RH, service client) et les hommes vers des postes de direction (stratégie, technique).
  • Ce n'est pas que le robot est "méchant", c'est qu'il a appris en lisant notre histoire. Comme un enfant qui imite ce qu'il voit à la télé, le robot a appris que "les hommes dirigent" et "les femmes s'occupent des autres".

🚧 Les Limites de l'Étude

Les chercheurs sont honnêtes et disent :

  • Ils n'ont testé que des hommes et des femmes (pas d'autres identités de genre), car ils avaient peu de temps et de place.
  • Ils n'ont utilisé qu'un seul robot (GPT-5).
  • C'est une étude sur des profils fictifs, pas sur de vrais gens.

💡 La Leçon à Retenir

Cette étude nous dit que l'intelligence artificielle n'est pas magique ni neutre. C'est un outil qui reflète nos propres biais.

Utiliser un robot pour recruter, c'est comme utiliser un miroir sale : si vous ne le nettoyez pas (en le corrigeant et en surveillant ses décisions), il va continuer à nous montrer une société inégale, où les femmes sont vues comme des "cœurs" et les hommes comme des "cerveaux".

En résumé : Le robot ne choisit pas encore qui vous êtes, mais il choisit comment il vous décrit. Et cette description peut changer votre avenir professionnel. Il faut donc faire très attention à qui (ou à quoi) on laisse la décision d'embaucher.