Patterns of genAI bias in guiding prospective undergraduate students: a study of UK neuroscience programmes

Cette étude révèle que les outils d'intelligence artificielle générative utilisés pour orienter les futurs étudiants britanniques vers des programmes de neurosciences reproduisent des biais systématiques favorisant les candidats aux notes élevées et aux profils privés, tout en associant un langage genéré spécifique à des caractéristiques institutionnelles, ce qui risque d'accentuer les inégalités éducatives et socioéconomiques.

Potter, H. G.

Publié 2026-03-24
📖 5 min de lecture🧠 Analyse approfondie
⚕️

Ceci est une explication générée par l'IA d'un preprint qui n'a pas été évalué par des pairs. Ce n'est pas un avis médical. Ne prenez pas de décisions de santé basées sur ce contenu. Lire la clause de non-responsabilité complète

Each language version is independently generated for its own context, not a direct translation.

🤖 Le Guide d'Orientation "Biaisé" : Quand l'IA vous conseille votre avenir

Imaginez que vous êtes un jeune étudiant qui veut choisir son université. Au lieu de lire des brochures ennuyeuses ou de parler à un conseiller, vous demandez à un robot super-intelligent (une intelligence artificielle générative, ou genAI) : "Hé robot, quelle est la meilleure université pour moi ?"

C'est exactement ce que Harry Potter (l'auteur de l'étude, oui, le même nom !) a fait. Il a demandé à trois robots célèbres (ChatGPT, Copilot et Gemini) de recommander des programmes de neurosciences au Royaume-Uni. Mais il a joué un jeu : il a changé les détails de sa "personne" virtuelle à chaque fois. Parfois, il était un garçon brillant de l'école privée, parfois une fille avec des notes moyennes de l'école publique, parfois un adulte qui reprend ses études.

Le résultat ? Les robots ne sont pas neutres. Ils ont des préjugés cachés, un peu comme un vieux conseiller qui jugerait trop vite.

Voici les trois grandes découvertes de l'étude, expliquées avec des images simples :

1. L'IA vous habille selon votre "classe sociale" et vos notes 🎩👕

C'est le résultat le plus frappant. Peu importe si vous êtes un garçon ou une fille, ce que l'IA vous dit dépend surtout de vos notes et de votre origine.

  • Si vous avez de très bonnes notes et que vous venez d'une école privée : Le robot vous parle comme à un futur chef d'entreprise. Il utilise un langage "masculin" et ambitieux (mots comme leader, compétitif, excellence, conquérir). Il vous envoie vers les universités les plus prestigieuses, les plus difficiles d'accès, celles qui font de la recherche de pointe. C'est comme si le robot vous disait : "Tu es un lion, va dominer la jungle !".
  • Si vous avez des notes plus modestes ou que vous venez d'une école publique : Le robot change de ton. Il devient plus "maternel" et "soutenant" (mots comme collaboratif, bienveillant, soutien, comprendre). Il vous oriente vers des universités qui mettent l'accent sur l'accès pour tous et la satisfaction des étudiants. C'est comme si le robot vous disait : "Tu es gentil, va dans un endroit où tu te sentiras à l'aise."

Le problème : L'IA ne vous conseille pas selon vos rêves, mais selon ce qu'elle croit que vous êtes capable d'atteindre. Elle renforce les inégalités existantes : les riches et les brillants reçoivent des conseils pour devenir des élites, les autres reçoivent des conseils pour rester dans le "confort".

2. Le langage change la destination 🧭

L'étude a découvert un lien étrange entre les mots utilisés et les universités recommandées.

  • Le langage "Masculin" (Ambition, Puissance) : Quand le robot utilise ce vocabulaire, il vous envoie vers des universités avec des barrières d'entrée très hautes et une réputation de recherche incroyable, mais où les étudiants sont souvent moins satisfaits (car c'est dur !).
  • Le langage "Féminin" (Soutien, Communauté) : Quand le robot utilise ce vocabulaire, il vous envoie vers des universités où les étudiants sont très heureux et satisfaits, mais qui ont souvent des exigences d'entrée plus basses.

L'analogie : C'est comme si un agent immobilier vous disait : "Pour un homme ambitieux, je vous montre ce gratte-ciel froid et difficile d'accès, mais c'est là que l'on fait fortune. Pour une femme sensible, je vous montre cette maison chaleureuse et facile d'accès, c'est là qu'on est heureux." Sauf que dans la réalité, les hommes et les femmes peuvent être tout à la fois !

3. Les robots ne sont pas tous pareils 🤖🤖🤖

Tous les robots ne mentent pas de la même façon.

  • ChatGPT a tendance à citer des sources un peu douteuses (comme des forums de discussion ou Wikipédia) et à être très influencé par le genre de l'utilisateur.
  • Gemini et Copilot ont leurs propres biais, mais ils recommandent souvent des universités plus "élitistes" pour les profils riches et brillants.

🚨 Pourquoi est-ce dangereux ?

Imaginez que vous demandez à un GPS de vous guider vers le sommet d'une montagne.

  • Si vous avez un bon équipement (bonnes notes), le GPS vous dit : "Prenez le sentier de l'escalade, c'est difficile mais vous y arriverez."
  • Si vous avez un équipement moyen, le GPS vous dit : "Restez dans la vallée, il y a de jolies fleurs, c'est plus sûr."

Le problème, c'est que le GPS décide pour vous. Il ne vous donne pas la carte complète. Il vous empêche de tenter l'ascension si vous ne correspondez pas à son "profil idéal".

Dans le monde réel, cela signifie que des étudiants brillants mais issus de milieux modestes pourraient ne jamais recevoir les conseils pour postuler aux meilleures universités, simplement parce que l'IA a "jugé" qu'ils n'étaient pas faits pour ça. Cela bloque la mobilité sociale et perpétue les inégalités.

💡 La conclusion en une phrase

Ces intelligences artificielles, bien qu'utiles, ne sont pas des miroirs neutres de la réalité. Elles sont des miroirs déformants qui reflètent nos propres préjugés sociaux (argent, école, notes) et les amplifient, risquant de verrouiller l'avenir des étudiants au lieu de l'ouvrir.

Le message final : Il faut surveiller ces outils, les réguler et rappeler aux étudiants que l'IA est un outil, pas un oracle infaillible !

Recevez des articles comme celui-ci dans votre boîte mail

Digests quotidiens ou hebdomadaires personnalisés selon vos intérêts. Résumés Gist ou techniques, dans votre langue.

Essayer Digest →