Gender Bias in Generative AI-assisted Recruitment Processes

Este estudio evalúa el sesgo de género en el uso de la IA generativa (GPT-5) para la contratación de graduados italianos menores de 35 años y descubre que, aunque no hay diferencias significativas en los puestos sugeridos, el modelo refuerza estereotipos al atribuir rasgos emocionales a las mujeres y analíticos a los hombres.

Martina Ullasci, Marco Rondina, Riccardo Coppola, Antonio Vetrò

Publicado 2026-03-13
📖 4 min de lectura☕ Lectura para el café

Each language version is independently generated for its own context, not a direct translation.

Imagina que la Inteligencia Artificial (IA) es como un chef muy talentoso pero con un problema: ha aprendido a cocinar leyendo millones de libros de recetas antiguas escritas por personas que tenían prejuicios. Aunque el chef es brillante y rápido, si le pides que prepare un plato para un hombre y otro para una mujer, podría terminar poniendo más especias "fuertes" en el plato del hombre y más "suaves" en el de la mujer, simplemente porque eso es lo que le dictan sus viejos libros.

Este es el resumen del estudio que acabas de leer, explicado de forma sencilla:

🎯 ¿De qué trata el experimento?

Los investigadores (un equipo de la Universidad Politécnica de Turín, Italia) decidieron poner a prueba a un "chef" de IA muy avanzado (llamado GPT-5) en un entorno de contratación de empleados.

  • La prueba: Crearon 24 "fichas" de candidatos ficticios. Todos tenían la misma edad (menos de 35 años), eran graduados universitarios italianos y tenían la misma experiencia laboral. La única diferencia era su género: 12 eran mujeres y 12 eran hombres.
  • La pregunta: Si le damos a la IA dos currículums idénticos, pero uno dice "María" y el otro "Marco", ¿le sugerirá la IA el mismo trabajo a ambos? ¿O le dirá cosas diferentes?

🔍 ¿Qué descubrieron? (Los resultados)

Aquí es donde entra la analogía de la etiqueta invisible:

  1. El puesto de trabajo (La etiqueta del "qué"):

    • Lo que esperábamos: Que la IA dijera cosas muy diferentes, como "Mujer: Enfermera" y "Hombre: Ingeniero".
    • Lo que pasó: No hubo una diferencia enorme. La IA sugirió puestos y sectores de trabajo bastante similares para ambos. Si le pedía un trabajo de gestión, se lo daba a ambos.
    • La metáfora: Fue como si el chef te diera el mismo plato principal (por ejemplo, una pizza) tanto al hombre como a la mujer.
  2. La descripción de la persona (La etiqueta del "cómo"):

    • Lo que pasó: Aquí es donde la IA se delató. Aunque les daba el mismo trabajo, las palabras que usaba para describirlos eran totalmente distintas.
    • Para las mujeres: La IA usaba palabras como "empática", "acogedora", "de apoyo" y "colaboradora". (Como si les pusiera un delantal de "cuidado y emoción").
    • Para los hombres: La IA usaba palabras como "estratégico", "influyente", "ambicioso", "determinado" y "confiable". (Como si les pusiera un sombrero de "líder y lógica").
    • La metáfora: Es como si el chef dijera: "A María le daré esta pizza porque es amable y suave, y a Marco le daré la misma pizza porque es fuerte y líder". ¡El plato es el mismo, pero la historia que cuenta sobre quién lo come es diferente!

📊 ¿Es grave?

Sí. El estudio encontró que, aunque la IA no discrimina en qué trabajo te ofrece, sí discrimina en cómo te describe.

  • El peligro: Si una empresa usa esta IA para filtrar candidatos, podría estar reforzando estereotipos sin darse cuenta. Podría pensar que una mujer es "demasiado emocional" para un puesto de liderazgo estratégico, o que un hombre es "demasiado frío" para un puesto de recursos humanos, basándose en palabras que la IA inventó por sí sola.

💡 ¿Qué nos dice esto?

La IA no es un robot neutral y perfecto. Es como un espejo roto de nuestra sociedad: refleja nuestros prejuicios históricos y, a veces, los hace más grandes.

  • El mensaje final: No podemos confiar ciegamente en estas herramientas para decisiones sensibles como contratar personas. Necesitamos ser muy cuidadosos, transparentes y recordar que, aunque la tecnología es rápida, a veces "piensa" con los mismos prejuicios antiguos que tenemos los humanos.

En resumen: La IA les dio el mismo trabajo a todos, pero les contó historias diferentes sobre quiénes eran, recordándonos que la tecnología necesita un "supervisor humano" para asegurarse de que no esté perpetuando viejos estereotipos de género.