Debiasing LLMs by Fine-tuning

Este artículo propone un método de bajo costo y generalizable para reducir el sesgo de extrapolación en los modelos de lenguaje grandes mediante el ajuste fino supervisado con LoRA, utilizando datos de pronósticos racionales para corregir las predicciones tanto en experimentos controlados como en la predicción de rendimientos accionarios.

Zhenyu Gao, Wenxi Jiang, Yutong Yan

Publicado 2026-04-06
📖 4 min de lectura☕ Lectura para el café

Each language version is independently generated for its own context, not a direct translation.

Imagina que tienes un chef de cocina extremadamente talentoso (el Modelo de Lenguaje o LLM) que ha leído millones de libros de recetas, diarios de comida y foros de restaurantes. Este chef sabe cocinar de todo, pero tiene un defecto muy curioso: siempre asume que el sabor de hoy será exactamente el mismo que el de ayer, solo que un poco más intenso.

Si ayer la sopa estaba un poco salada, este chef cree que hoy estará muy salada, y mañana será insalvable. En el mundo de las finanzas, a esto se le llama sesgo de extrapolación: creer que las tendencias recientes (subidas o bajadas) continuarán para siempre, ignorando que a veces las cosas simplemente vuelven a la normalidad.

Los autores de este paper, Zhenyu Gao, Wenxi Jiang y Yutong Yan, descubrieron que pedirle al chef que "piense con más lógica" o que "actúe como un experto racional" (lo que se llama prompts) no funciona. Es como gritarle al chef: "¡No seas tan dramático!" mientras sigue cocinando con la misma receta defectuosa. El problema no está en lo que le dices, sino en la receta interna que aprendió al leer millones de textos financieros donde la gente suele exagerar.

La Solución: Un "Entrenamiento de Reeducación" (Fine-Tuning)

En lugar de seguir gritando instrucciones, los autores decidieron reentrenar al chef con una técnica llamada SFT (Ajuste Fino Supervisado) usando un truco inteligente llamado LoRA.

Aquí te explico cómo funciona con una analogía sencilla:

  1. El Problema (El Chef Viejo):
    El chef original (el modelo pre-entrenado) ve una acción de bolsa que subió mucho la semana pasada y predice que seguirá subiendo descontroladamente. Esto es peligroso porque en la vida real, cuando algo sube mucho, a menudo baja (se corrige). El chef está "alucinando" una tendencia que no existe.

  2. La Herramienta (LoRA - Las Gafas de Entrenamiento):
    Reentrenar a un chef de 32 mil millones de ingredientes (parámetros) desde cero es imposible; costaría millones de dólares y años de tiempo.
    Aquí entra LoRA. Imagina que en lugar de cambiar toda la cocina, le pones al chef unas gafas de realidad aumentada muy ligeras y baratas.

    • Las gafas no cambian su memoria ni su capacidad de hablar (sigue siendo el mismo chef genial).
    • Las gafas solo le muestran una nueva regla cuando ve datos financieros: "Oye, cuando ves una subida fuerte, recuerda que suele haber una corrección después".
    • Es como si le dieras al chef un pequeño cuaderno de notas que dice: "Si ayer llovió, no asumas que mañana será un diluvio; quizás solo sea una llovizna".
  3. El Proceso (El Entrenamiento):
    Los autores crearon miles de ejemplos donde le mostraban al chef:

    • Entrada: "La acción subió un 5% ayer".
    • Respuesta Correcta (la que querían enseñar): "Probablemente baje un poco hoy porque las tendencias fuertes suelen corregirse".
    • El chef practica con estas gafas (LoRA) hasta que aprende a usarlas automáticamente.

¿Funcionó? ¡Sí, y muy bien!

Los autores probaron esto en dos escenarios:

  • Escenario 1: Un Laboratorio Controlado.
    Le dieron al chef datos de un juego matemático simple. Antes, el chef reaccionaba exageradamente a cada movimiento (como un humano nervioso). Después de ponerle las "gafas LoRA", el chef se volvió frío y calculador. Ya no se asustaba ni se emocionaba demasiado; sus predicciones eran racionales.

  • Escenario 2: El Mercado de Valores Real.
    Le pidieron que predijera el futuro de las acciones de la S&P 500.

    • Antes: El chef decía: "¡Si subió ayer, subirá mañana!". (Extrapolación).
    • Después: El chef aprendió la lección de la historia: "Si subió mucho ayer, es probable que baje un poco hoy". (Reversión a la media).
    • Resultado: El modelo corregido dejó de cometer el error de "perseguir la tendencia" y empezó a predecir con mucha más precisión cómo se comportan realmente las acciones.

¿Por qué es importante esto?

Imagina que quieres contratar a un robot para gestionar tu dinero. Si el robot tiene este defecto de "extrapolación", te dirá que compres acciones que ya han subido mucho (porque cree que seguirán subiendo), y perderás dinero cuando el mercado se corrija.

Este paper nos dice que no necesitamos esperar a que los robots sean perfectos por arte de magia. Podemos "educarlos" de forma barata y rápida (usando LoRA) para que eliminen sus prejuicios humanos antes de usarlos.

En resumen:
El papel demuestra que los robots inteligentes a veces tienen "vicios" aprendidos de los humanos. En lugar de intentar convencerlos con palabras, podemos darles un pequeño "ajuste de software" (LoRA) que les enseña a pensar con lógica matemática, haciendo que sean mucho más seguros y útiles para tomar decisiones financieras importantes. Es como darle a un piloto automático un mapa actualizado para que deje de chocar contra las montañas que cree que existen.

Recibe artículos como este en tu bandeja de entrada

Resúmenes diarios o semanales personalizados según tus intereses. Gists o resúmenes técnicos, en tu idioma.

Probar Digest →