Small Changes, Big Impact: Demographic Bias in LLM-Based Hiring Through Subtle Sociocultural Markers in Anonymised Resumes

Este estudio demuestra que, incluso en currículos anonimizados, los marcadores socioculturales sutiles (como idiomas, aficiones y voluntariado) permiten a los modelos de lenguaje grandes inferir la demografía de los candidatos y generar sesgos sistemáticos que favorecen a los hombres chinos y caucásicos, exacerbando la discriminación en los procesos de contratación automatizada.

Bryan Chen Zhengyu Tan, Shaun Khoo, Bich Ngoc Doan, Zhengyuan Liu, Nancy F. Chen, Roy Ka-Wei Lee

Publicado 2026-03-06
📖 4 min de lectura☕ Lectura para el café

Each language version is independently generated for its own context, not a direct translation.

Aquí tienes una explicación sencilla y creativa de este estudio, imaginando el proceso como una historia de detectives en el mundo de la contratación.

🕵️‍♂️ El Misterio: "El CV Anónimo que No es Tan Anónimo"

Imagina que estás buscando trabajo y decides usar una IA (Inteligencia Artificial) para revisar tu currículum. Para ser justos, la empresa decide borrar tu nombre, tu foto y tu dirección. Piensan: "¡Perfecto! Ahora la IA solo verá tus habilidades y no sabrá quién eres".

Pero, este estudio de investigadores de Singapur descubre que la IA tiene un superpoder oculto: puede adivinar tu origen y tu género solo por cosas que parecen inofensivas, como tus hobbies, los idiomas que hablas o tus actividades de voluntariado.

Es como si, en lugar de leer tu nombre, la IA leyera tu "aura cultural".

🎭 La Experimentación: El Juego de las 4100 Máscaras

Los investigadores hicieron algo muy ingenioso para probar esto:

  1. Crearon 100 "CVs Neutros": Imagina 100 candidatos perfectos para un trabajo de enfermero, ingeniero o vendedor. Todos tienen la misma experiencia, las mismas notas y las mismas habilidades. Son idénticos, como gemelos separados al nacer.
  2. Les pusieron "Máscaras Culturales": Luego, tomaron esos 100 CVs y crearon 4100 versiones diferentes. A cada uno le cambiaron solo la sección de "Datos Adicionales" (hobbies, idiomas, voluntariado) para que pareciera que pertenecían a uno de cuatro grupos étnicos (Chino, Malay, Indio, Caucasiano) y dos géneros (Hombre, Mujer).
    • Ejemplo: Al CV "A" le pusieron que le gusta el fútbol y el ajedrez (marcas estereotípicas de un hombre chino). Al CV "B" le pusieron que le gusta la cerámica y el baile (marcas estereotípicas de una mujer china).
  3. El Juicio: Le mostraron estos CVs a 18 inteligencias artificiales diferentes (como Gemini, GPT, Claude) y les dijeron: "Elige al mejor candidato" o "Ponles una nota del 1 al 100".

🔍 Lo que Descubrieron: La IA "Lee" entre Líneas

Los resultados fueron reveladores y un poco inquietantes:

  • La IA es un detective cultural: Aunque no tenían nombres, las IAs adivinaron el género y la etnia con una precisión casi perfecta (más del 90%).
    • La analogía: Es como si vieras a alguien con una camiseta de fútbol y una gorra de béisbol y supieras inmediatamente que es un hombre estadounidense, aunque no te haya dicho su nombre.
  • El Sesgo de "Quiénes Ganan":
    • Los candidatos que parecían hombres chinos o caucásicos siempre obtenían las mejores notas y eran los primeros en ser seleccionados.
    • Las mujeres de minorías étnicas (especialmente malayas e indias) siempre quedaban en los últimos lugares, incluso teniendo exactamente las mismas habilidades profesionales.
    • La metáfora: Imagina una carrera donde todos corren a la misma velocidad, pero a algunos se les permite llevar zapatos de oro y a otros se les atan piedras en los pies solo por su "estilo de ropa".

🤔 El Truco de "Explicar tu Decisión"

Un hallazgo muy curioso fue sobre las "explicaciones". Muchos piensan que si le pides a la IA: "Dime por qué elegiste a este candidato", la IA se pondrá a pensar más y será más justa.

¡Falso!
El estudio descubrió que pedirle a la IA que explique su razonamiento a menudo empeoró el sesgo.

  • La analogía: Es como pedirle a un juez racista que escriba un ensayo sobre por qué eligió a un candidato. En lugar de cambiar de opinión, el juez usa el ensayo para justificar aún más su prejuicio, haciendo que su decisión parezca más "lógica" cuando en realidad es injusta.

🌍 ¿Por qué Singapur?

Singapur es como un "laboratorio perfecto" para esto porque es una mezcla de culturas (Chinos, Malayos, Indios, Europeos) que conviven. Los investigadores usaron marcadores culturales reales de allí (como el voluntariado en una mezquita, el baile Bharatanatyam o el ajedrez) para ver cómo reaccionaba la IA.

💡 La Lección Principal: "Pequeños Cambios, Gran Impacto"

El mensaje final es claro: Borrar el nombre no es suficiente.

Si una empresa usa IA para contratar, y la IA sigue viendo "pistas" culturales en los hobbies o los idiomas, seguirá discriminando.

  • El problema: La IA aprende de los prejuicios humanos que existen en internet. Si en la vida real a veces se prefiere a un hombre chino para un puesto de liderazgo, la IA aprende eso y lo repite.
  • La solución: No basta con "anonimizar" los datos. Las empresas necesitan auditar sus IAs, entender que estas herramientas tienen "gafas de color" y asegurarse de que no estén penalizando a personas por sus gustos personales o su cultura.

En resumen: La tecnología promete ser justa, pero si no la vigilamos, puede convertirse en un espejo que refleja nuestros prejuicios más profundos, disfrazados de "datos objetivos".