Investigating Gender Stereotypes in Large Language Models via Social Determinants of Health

Este estudio demuestra que los Modelos de Lenguaje Grande (LLM) reproducen estereotipos de género al analizar registros médicos en francés, revelando que evaluar las interacciones entre los determinantes sociales de la salud es esencial para detectar sesgos que las métricas tradicionales pasan por alto.

Trung Hieu Ngo, Adrien Bazoge, Solen Quiniou, Pierre-Antoine Gourraud, Emmanuel Morin

Publicado Wed, 11 Ma
📖 5 min de lectura🧠 Análisis profundo

Each language version is independently generated for its own context, not a direct translation.

Imagina que los Modelos de Lenguaje Grandes (LLMs), como los que usan para escribir correos o generar textos, son como cocineros muy talentosos pero un poco ingenuos. Han aprendido a cocinar (escribir) leyendo millones de libros, recetas y conversaciones de internet. El problema es que, al igual que los humanos, han absorbido no solo los hechos, sino también los prejuicios y estereotipos que hay en esa "biblioteca" de datos.

Este estudio es como una inspección de cocina para ver si estos "cocineros digitales" tienen prejuicios de género cuando les damos información sobre la vida de un paciente, pero sin decirles explícitamente si es hombre o mujer.

Aquí tienes la explicación sencilla, paso a paso:

1. El Problema: El "Ojo de Águila" que ve lo que no está

En medicina, los médicos usan datos sociales (llamados Determinantes Sociales de la Salud o SDoH) para entender a sus pacientes. Esto incluye cosas como:

  • ¿A qué se dedica? (Trabajo)
  • ¿Está casado?
  • ¿Fuma o bebe?
  • ¿Dónde vive?

El estudio se preguntó: Si le damos a una Inteligencia Artificial (IA) solo estos datos (ej. "trabaja en una granja", "fuma", "es jubilado") pero borramos la palabra "hombre" o "mujer", ¿la IA adivinará el género basándose en estereotipos?

La analogía: Es como si le mostráramos a un detective una foto de una persona con un delantal y un martillo, pero sin ver su cara. Si el detective dice "¡Es un hombre!" solo por el martillo, está usando un estereotipo. Si dice "¡Es una mujer!" por el delantal, también lo está haciendo.

2. La Experimentación: El "Ciego" de la Información

Los investigadores tomaron 1.700 historias clínicas reales de un hospital en Francia.

  • El truco: Eliminaron todas las pistas de género (palabras como "él", "ella", nombres propios). Transformaron todo en datos neutros (ej. en lugar de "enfermera", pusieron "profesión de enfermería").
  • La prueba: Le dieron estos datos "limpios" a 9 modelos de IA diferentes (desde versiones pequeñas hasta gigantes) y les pidieron: "¿Crees que este paciente es hombre o mujer?".
  • La escala: Les dijeron que respondieran del 1 (mujer) al 7 (hombre), con el 4 siendo "no estoy seguro".

3. Los Resultados: La IA tiene "Prejuicios Profundos"

Lo que descubrieron fue preocupante pero revelador:

  • La IA "adivina" basándose en clichés: Aunque no les dijeron el género, la IA adivinó correctamente (o incorrectamente) basándose en estereotipos sociales.
    • Si el paciente era "jubilado" o "fumaba", la IA tendía a decir: "Es un hombre".
    • Si el paciente era "estudiante" o "ama de casa", la IA tendía a decir: "Es una mujer".
    • Si el trabajo era "agricultor", la IA pensaba "hombre". Si era "empleada de oficina", pensaba "mujer".
  • Los modelos pequeños son más "prejuiciosos": Los modelos más pequeños (con menos "cerebro" o parámetros) fueron más seguros de sus estereotipos que los gigantes. Parecía que, al no tener tanta capacidad para analizar matices, se aferraban más a las reglas simples y estereotipadas.
  • Los modelos médicos también tienen prejuicios: Incluso los modelos entrenados específicamente para medicina (como un médico digital) mostraron estos mismos sesgos, a veces incluso más fuertes que los modelos generales.

4. La Comparación Humana: ¿Somos tan malos como las máquinas?

Los investigadores también preguntaron a 9 personas reales (estudiantes universitarios) que hicieran la misma prueba con los mismos datos.

  • El hallazgo sorprendente: ¡Las personas y las máquinas pensaban casi igual!
  • Tanto los humanos como la IA asociaban "trabajador manual" con "hombre" y "ama de casa" con "mujer".
  • La lección: La IA no está inventando estos prejuicios de la nada; está espejeando los prejuicios que ya existen en nuestra sociedad. Si la IA es sesgada, es porque nosotros (y los datos que usamos para entrenarla) lo somos.

5. ¿Por qué importa esto? (El peligro real)

Imagina que un médico usa esta IA para ayudar a diagnosticar a un paciente.

  • Escenario: Un paciente llega con dolor abdominal. La IA, al ver que el paciente es "jubilado" y "fuma", asume automáticamente que es un hombre y sugiere diagnósticos relacionados con problemas masculinos, ignorando que podría ser una mujer con problemas menstruales o ginecológicos.
  • El riesgo: Esto podría llevar a diagnósticos erróneos y tratamientos incorrectos, simplemente porque la máquina "pensó" que era un hombre por su trabajo o su estilo de vida.

6. La Conclusión: No podemos borrar el pasado, pero podemos ser conscientes

El estudio concluye que:

  1. No podemos tener IAs 100% libres de prejuicios porque aprenden de datos humanos que ya tienen prejuicios (como un espejo que refleja lo que hay en la habitación).
  2. Necesitamos nuevas pruebas: No basta con probar si la IA escribe bien; hay que probar si "piensa" con estereotipos al usar datos de la vida real.
  3. La solución: No es eliminar la IA, sino usarla con cuidado. Los desarrolladores deben ser conscientes de estos sesgos y los médicos deben saber que la IA puede "alucinar" género basándose en el trabajo o el consumo de tabaco.

En resumen: Este papel nos dice que las IAs médicas son como niños que han leído demasiados cómics antiguos: saben mucho, pero a veces asumen que "los bomberos son hombres" y "las enfermeras son mujeres" solo porque eso es lo que han visto en sus libros. Nuestro trabajo es enseñarles a ver más allá de la portada del libro.