Position: LLMs Must Use Functor-Based and RAG-Driven Bias Mitigation for Fairness

Este artículo de posición propone un marco dual que integra transformaciones basadas en funtores de la teoría de categorías y la generación aumentada por recuperación (RAG) para mitigar sistemáticamente los sesgos demográficos y de género en los modelos de lenguaje grandes, garantizando así resultados equitativos y justos.

Ravi Ranjan, Utkarsh Grover, Agorista Polyzou

Publicado 2026-03-10
📖 4 min de lectura☕ Lectura para el café

Each language version is independently generated for its own context, not a direct translation.

Imagina que los Grandes Modelos de Lenguaje (como los que usas para chatear o escribir) son como bibliotecarios gigantes que han leído todo internet. El problema es que, al leer tanto, han absorbido no solo hechos, sino también los prejuicios, estereotipos y errores de la sociedad.

Por ejemplo, si le pides al bibliotecario que te recomiende un trabajo para un amigo, podría decirte: "Si tu amigo es de un país rico, será programador; si es de un país en desarrollo, será repartidor". Esto no es porque el amigo sea menos capaz, sino porque el bibliotecario ha aprendido de libros antiguos que decían eso.

Este artículo propone una solución creativa con dos herramientas principales para arreglar a este bibliotecario: Matemáticas de "Categorías" (Functors) y Búsqueda en Tiempo Real (RAG).

Aquí te lo explico con analogías sencillas:

1. El Problema: El Bibliotecario Prejuicioso

El modelo actual tiene "gafas de color" puestas. Cuando piensa en "enfermera", sus gafas le muestran automáticamente una mujer. Cuando piensa en "director ejecutivo", le muestran un hombre. Estas gafas están incrustadas en su cerebro (sus parámetros) y son difíciles de quitar solo con decirle "por favor, sé amable".

2. La Solución A: Las "Gafas Matemáticas" (Teoría de Categorías y Functors)

Imagina que el cerebro del modelo es un mapa de conexiones muy complejo. A veces, las líneas que conectan "mujer" con "limpieza" son demasiado gruesas y fuertes, mientras que las que conectan "mujer" con "ingeniería" son casi invisibles.

Los autores proponen usar una rama de las matemáticas llamada Teoría de Categorías.

  • La Analogía: Piensa en esto como un traductor de mapas. Tienes un mapa viejo y distorsionado (donde los estereotipos son reales) y quieres convertirlo en un mapa nuevo y justo.
  • El "Functor": Es como una regla matemática mágica que toma el mapa viejo y lo transforma en el nuevo. No borra las ciudades (el significado de las palabras), pero reorganiza las carreteras.
    • Hace que la distancia entre "hombre" y "mujer" sea igual para todos los trabajos.
    • Asegura que la palabra "médico" esté a la misma distancia de "hombre" que de "mujer".
    • Es como si le dieras al bibliotecario unas gafas de realidad aumentada que corrigen matemáticamente su visión, asegurando que las conexiones injustas desaparezcan sin perder la capacidad de entender el lenguaje.

3. La Solución B: El "Investigador Externo" (RAG - Generación Aumentada por Recuperación)

A veces, las matemáticas no son suficientes porque el mundo cambia rápido. Lo que era cierto hace 10 años (ej. "las mujeres no hacen de líderes") ya no lo es.

Aquí entra RAG.

  • La Analogía: Imagina que el bibliotecario tiene una memoria interna (lo que aprendió al entrenarse), pero ahora le damos un acceso directo a una biblioteca actualizada y diversa que puede consultar en tiempo real.
  • Cómo funciona: Cuando le preguntas algo, el modelo no solo se basa en lo que "cree" saber de memoria. Primero, busca en documentos externos, noticias recientes y estudios científicos que sean justos y equilibrados.
    • Si el modelo interno piensa: "Los hombres son mejores en STEM", el sistema RAG busca un artículo reciente que diga: "Las mujeres están liderando la ciencia en 2025" y se lo muestra al modelo.
    • El modelo entonces dice: "Ah, gracias a la información nueva que acabo de leer, voy a corregir mi respuesta".
  • Es como si el bibliotecario, antes de responder, consultara a un comité de expertos éticos para asegurarse de que su respuesta sea justa y actual.

4. La Gran Combinación: El Equipo Perfecto

El artículo dice que usar solo una de estas cosas no es suficiente. Necesitas ambas:

  1. Las Matemáticas (Functor): Arreglan el cerebro del modelo desde adentro, limpiando las conexiones tóxicas permanentemente. Es como reestructurar los cimientos de una casa para que no se incline.
  2. La Búsqueda (RAG): Arregla la información que usa el modelo en el momento, asegurando que lo que dice esté basado en hechos reales y diversos, no en viejos prejuicios. Es como tener un asistente que te recuerda los hechos correctos en tiempo real.

En Resumen

Para que la Inteligencia Artificial sea justa, no basta con decirle "sé bueno". Necesitamos:

  1. Reconstruir su lógica interna con matemáticas precisas para que no tenga prejuicios "de fábrica".
  2. Conectarla con fuentes de información externas y actualizadas para que sus respuestas reflejen un mundo diverso y equitativo.

Es una combinación de arreglar el motor (las matemáticas) y ponerle un GPS actualizado (la búsqueda externa) para que el viaje sea justo para todos los pasajeros.