More Women, Same Stereotypes: Unpacking the Gender Bias Paradox in Large Language Models

Este estudio revela que, aunque los Grandes Modelos de Lenguaje (LLM) tienden a sobrerrepresentar a las mujeres en sus historias generadas debido al ajuste fino y al aprendizaje por refuerzo, paradójicamente siguen asignándoles roles ocupacionales que reflejan estereotipos de género más que la realidad laboral actual.

Evan Chen, Run-Jun Zhan, Yan-Bai Lin, Hung-Hsuan Chen

Publicado Tue, 10 Ma
📖 4 min de lectura☕ Lectura para el café

Each language version is independently generated for its own context, not a direct translation.

¡Hola! Imagina que los Modelos de Lenguaje Grande (como los que usan ChatGPT o Gemini) son como grandes cocineros digitales que han aprendido a cocinar historias leyendo millones de libros, artículos y conversaciones de internet.

Este estudio, titulado "Más mujeres, mismos estereotipos", descubre algo muy curioso y un poco paradójico sobre estos "cocineros" cuando les pedimos que inventen personajes para diferentes trabajos.

Aquí te lo explico con analogías sencillas:

1. El Problema: ¿Qué pedimos y qué nos dan?

Los investigadores le dijeron a 10 de estos "cocineros" (modelos de IA): "Inventa el comienzo de una historia sobre un [profesión], como un médico, un bombero o una maestra". No les dieron reglas estrictas, solo dejaron que la imaginación fluyera libremente.

Lo que descubrieron fue una "inundación" de mujeres:

  • En la vida real, hay muchos más hombres que mujeres en trabajos como bomberos o mecánicos, y más mujeres en enfermería o enseñanza (aunque esto está cambiando).
  • Pero, ¡sorpresa! La IA generó historias donde las mujeres dominaban casi todos los trabajos.
  • De 106 profesiones analizadas, en 35 de ellas, la IA inventó personajes femeninos el 80% de las veces. ¡Solo en 5 profesiones hicieron lo mismo con hombres!
  • La analogía: Es como si fueras a un restaurante y pidieras "hamburguesas", "pizzas" y "sushi", y el chef, por miedo a ofender a alguien o por intentar ser muy inclusivo, te trajera solo ensaladas de lechuga en todos los platos. ¡Hay demasiada lechuga (mujeres) y muy poca variedad real!

2. La Paradoja: ¿Por qué pasa esto?

Los autores creen que esto no es un error aleatorio, sino el resultado de cómo se "educan" a estas IAs.

  • El entrenamiento: Para que las IAs sean "buenas", los humanos las entrenan (con técnicas llamadas SFT y RLHF) para que sean amables, seguras y justas.
  • El efecto rebote: Es como si el entrenador le dijera al cocinero: "Oye, en el pasado cocinabas muy poco para las mujeres, así que ¡ahora ponle mucha lechuga a todo para compensar!".
  • El resultado: La IA se pasó de la raya. Ahora, incluso en trabajos que tradicionalmente son masculinos (como bomberos o mecánicos), la IA inventa mujeres.

3. La Sorpresa: ¿Son racistas o estereotipados?

Aquí viene la parte más interesante. Aunque la IA pone a muchas mujeres en todos los trabajos, sigue pensando en estereotipos.

  • Si ordenamos los trabajos desde "más asociados a hombres" hasta "más asociados a mujeres" (según lo que piensa la gente), la lista que hace la IA coinciere casi perfectamente con lo que piensan los humanos, no con la realidad estadística.
  • La analogía: Imagina que la IA es un espejo un poco loco. Si le pones un sombrero de vaquero (trabajo de granjero), el espejo te devuelve a una mujer, pero sigue siendo una mujer con un sombrero de vaquero. Si le pones un delantal de chef, te devuelve a una mujer con un delantal.
  • La IA ha cambiado la cantidad (hay más mujeres), pero no ha cambiado la asociación mental (sigue pensando que los bomberos son "más de hombres" que las enfermeras, aunque en sus historias ponga a mujeres en ambos).

4. La Lección: ¿Qué nos dice esto?

El estudio nos advierte sobre un riesgo:

  • Intentar arreglar un sesgo (discriminación contra mujeres) corrigiéndolo en exceso puede crear nuevos sesgos.
  • Si la IA nos muestra un mundo donde las mujeres hacen todo el trabajo, desde ser presidentas hasta ser mecánicas, podríamos terminar con una visión del mundo que no es real. Esto podría confundir a la gente sobre cómo funciona realmente la sociedad.

En resumen:
La IA ha aprendido a ser "demasiado políticamente correcta" al poner mujeres en todos lados, pero sigue guardando los viejos estereotipos en su cabeza. Es como si un pintor decidiera pintar a todas las personas de su cuadro de color rosa, pero siguiera pintando a los hombres con martillos y a las mujeres con escobas, solo que ahora todos son de color rosa.

¿Qué hacen los autores? Han liberado todas las historias que la IA escribió para que cualquiera pueda ver estos patrones y ayudar a crear IAs más equilibradas y justas en el futuro.