Small Changes, Big Impact: Demographic Bias in LLM-Based Hiring Through Subtle Sociocultural Markers in Anonymised Resumes

Deze studie toont aan dat zelfs geanonimiseerde CV's met subtiele socioculturele markers, zoals talen en hobby's, grote taalmodellen in staat stellen om demografische vooroordelen te reproduceren en kandidaten te discrimineren op basis van etniciteit en geslacht.

Bryan Chen Zhengyu Tan, Shaun Khoo, Bich Ngoc Doan, Zhengyuan Liu, Nancy F. Chen, Roy Ka-Wei Lee

Gepubliceerd 2026-03-06
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Kleine Veranderingen, Groot Effect: Hoe AI bij het Aannemen Stiekem Vooroordelen Heeft

Stel je voor dat je een supersterke, digitale HR-manager hebt. Deze "AI-manager" is razendsnel, leest duizenden sollicitaties in seconden en zou objectiever moeten zijn dan een mens. Maar deze nieuwe studie, uitgevoerd door onderzoekers in Singapore, laat zien dat deze digitale manager stiekem nog steeds vooroordelen heeft. En het ergste is: hij ziet ze niet eens, omdat ze verborgen zitten in de kleinste details.

Hier is wat de onderzoekers hebben ontdekt, vertaald naar een simpel verhaal:

1. Het "Vermomde" Sollicitantje

In het echte leven proberen bedrijven vaak eerlijk te zijn door persoonlijke gegevens (zoals je naam, foto of adres) uit je sollicitatiebrief te halen. Dit heet "anoniem maken". Je denkt dan: "Oké, nu kan de AI mijn naam niet zien, dus hij moet me beoordelen puur op mijn vaardigheden."

Maar de onderzoekers ontdekten dat je sollicitatiebrief vol zit met stille signalen. Denk aan:

  • Welke talen je spreekt (bijv. Mandarijn vs. Tamil).
  • Wat je in je vrije tijd doet (bijv. basketbalclub vs. dansgroep).
  • Waar je vrijwilligerswerk doet (bijv. in een moskee vs. bij een tempel).
  • Je hobby's (bijv. computers bouwen vs. bakken).

Deze dingen lijken onschuldig en hebben niets met de baan te maken, maar voor een AI zijn ze als geheime code. Ze vertellen de AI direct: "Dit is een man uit groep X" of "Dit is een vrouw uit groep Y".

2. Het Grote Experiment: De "Kostuumwissel"

De onderzoekers maakten 100 perfecte, neutrale sollicitatiebrieven voor verschillende banen. Vervolgens maakten ze van elke brief 41 varianten. Ze veranderden alleen die kleine, onschuldige details (de hobby's, talen, vrijwilligerswerk) om vier verschillende etnische groepen (Chinees, Maleis, Indiaas, Kaukasisch) en twee geslachten (man/vrouw) te simuleren.

Het was alsof ze dezelfde persoon in 41 verschillende kostuums staken, terwijl de "kwaliteiten" onder het kostuum exact hetzelfde bleven. Vervolgens lieten ze 18 verschillende AI-modellen (zoals de slimste versies van ChatGPT, Gemini, Claude, etc.) deze sollicitaties beoordelen.

3. De Schokkende Resultaten

De AI's vielen in de valkuil. Zelfs zonder namen te zien, konden ze de etniciteit en het geslacht van de sollicitant met bijna 100% zekerheid raden op basis van die kleine hobby's en talen.

En wat deden ze met die informatie? Ze waren niet eerlijk:

  • De "Winnaars": Sollicitanten met signalen die leken op Chinees of Kaukasisch mannelijk werden vaak als beste beoordeeld.
  • De "Verliezers": Sollicitanten met signalen die leken op Maleise of Indiase vrouwen werden vaak het laagst gerangschikt, zelfs als hun ervaring precies hetzelfde was als die van de "winnaars".

Het is alsof je twee identieke auto's hebt, maar de ene heeft een sticker van een dure club op de bumper en de andere een sticker van een goedkope club. De AI kiest dan stiekem de auto met de dure sticker, terwijl ze technisch gezien even goed zijn.

4. De "Uitleg"-Valstrik

Veel mensen denken: "Als we de AI vragen om uit te leggen waarom ze een keuze maken, wordt ze dan eerlijker?"
De onderzoekers probeerden dit. Ze gaven de AI de opdracht: "Kies de beste kandidaat en leg in 2 zinnen uit waarom."

Het resultaat? Het werd juist slechter.
Door te vragen om een uitleg, gaf de AI de kans om haar vooroordelen te "verpakken" in een logisch ogend verhaal. Ze zochten naar smoesjes om hun voorkeur voor de "Chinees-Mannelijke" kandidaat te rechtvaardigen. Het vragen om een reden maakte de AI dus niet eerlijker, maar juist slimmer in het verbergen van haar bias.

5. De Grootte van het Probleem

De studie laat zien dat:

  • Taal de belangrijkste sleutel is om etniciteit te raden.
  • Hobby's en activiteiten de belangrijkste sleutel zijn om geslacht te raden.
  • De AI's die we nu gebruiken, zijn niet "neutraal". Ze hebben geleerd van de wereld om hen heen, en die wereld zit vol met stereotypen.

Wat betekent dit voor ons?

De boodschap is duidelijk: Het verwijderen van je naam is niet genoeg. Zolang je sollicitatiebrief details bevat over je cultuur, taal en hobby's, kan een AI die details gebruiken om je te discrimineren.

Het is alsof je probeert een eerlijke wedstrijd te houden, maar de scheidsrechter (de AI) kijkt stiekem naar de kleuren van de shirts van de spelers en kiest dan de winnaar op basis van dat shirt, niet op basis van hoe goed ze spelen.

De oplossing?
Bedrijven en ontwikkelaars moeten zich realiseren dat "anoniem maken" veel moeilijker is dan het lijkt. Je moet niet alleen namen wissen, maar ook kijken naar hoe je AI-trainingsdata en de prompts (de instructies) de AI beïnvloeden. En vooral: vertrouw niet blind op AI voor het aannemen van mensen zonder eerst te testen of de AI eerlijk is voor iedereen.