Calibrating Behavioral Parameters with Large Language Models

Este artículo presenta un marco para utilizar modelos de lenguaje extensos (LLMs) como instrumentos de medición calibrados de parámetros conductuales, demostrando que, mediante un proceso de calibración basado en perfiles, los LLMs pueden replicar sesgos financieros humanos y generar patrones de precios de activos consistentes con la evidencia empírica.

Autores originales: Brandon Yee, Krishna Sharma

Publicado 2026-04-27
📖 3 min de lectura☕ Lectura para el café

Esta es una explicación generada por IA del artículo a continuación. No ha sido escrita ni avalada por los autores. Para mayor precisión técnica, consulte el artículo original. Leer descargo de responsabilidad completo

Each language version is independently generated for its own context, not a direct translation.

¿Podemos usar a la Inteligencia Artificial para entender nuestros propios "errores" mentales?

Imagina que quieres estudiar por qué la gente toma malas decisiones con su dinero. El problema es que estudiar humanos es difícil: las personas son impredecibles, se cansan, se ponen nerviosas si les dices que pueden perder dinero real, o simplemente mienten en las encuestas para parecer más inteligentes de lo que son.

Un grupo de investigadores ha propuesto una idea revolucionaria: en lugar de usar a los humanos como sujetos de prueba, vamos a usar a la Inteligencia Artificial (como ChatGPT) como si fuera un "termómetro" de la psicología humana.

La analogía del "Termómetro Psicológico"

Imagina que quieres medir qué tan "caliente" es el miedo en una habitación. No puedes meter un termómetro dentro del sentimiento de miedo, pero puedes usar un instrumento calibrado que reaccione al calor.

Los científicos hicieron lo mismo con la IA. No intentaron que la IA sintiera miedo o avaricia (porque las máquinas no sienten nada), sino que crearon "perfiles" o "disfraces" de texto. Le dijeron a la IA: "Imagina que eres un inversor que odia perder dinero más de lo que ama ganar". Luego, observaron cómo cambiaban sus decisiones.

¿Qué descubrieron? (Los "errores" de fábrica)

El estudio encontró algo muy curioso: la IA, por defecto, es "demasiado racional". Si no le das instrucciones especiales, la IA actúa como un matemático perfecto, sin emociones. Es como un robot que nunca se deja llevar por la euforia de una fiesta o el pánico de una caída.

Sin embargo, cuando los investigadores le pusieron los "disfraces" (los perfiles psicológicos), la IA empezó a cometer errores muy parecidos a los de nosotros:

  1. El miedo a la pérdida (Aversión a la pérdida): Cuando le dijeron que fuera alguien que teme perder, la IA empezó a tomar decisiones que encajaban perfectamente con cómo reaccionamos los humanos.
  2. El efecto "seguidor de la manada" (Herding): Si le decían que valoraba la opinión de los demás, la IA empezaba a seguir la corriente, igual que nosotros cuando compramos una acción solo porque "todo el mundo lo está haciendo".
  3. El efecto "mirar por el retrovisor" (Extrapolación): Si le decían que creyera en las tendencias, la IA asumía que si algo subió ayer, subirá mañana, ignorando que el mercado es caótico. Esto es exactamente lo que causa las burbujas financieras.

¿Por qué es esto importante?

Esto es como haber inventado un "simulador de vuelo" para la economía.

Antes, si un economista quería probar cómo afectaría un pánico financiero al mercado, tenía que hacer cálculos matemáticos abstractos o esperar a que ocurriera una crisis real. Ahora, pueden usar estos modelos de IA "calibrados" para crear mercados virtuales y ver qué pasaría.

Es como tener un laboratorio donde puedes subirle el "volumen" al miedo o a la avaricia para ver si el sistema financiero aguanta el golpe.

La advertencia: La IA no tiene "corazón"

Pero ojo, los autores también ponen un límite claro. La IA es excelente simulando la lógica de nuestros errores (la parte matemática de la psicología), pero es pésima simulando la emoción pura.

La IA puede entender la lógica de por qué alguien vende una acción por miedo, pero no puede sentir el sudor frío en las manos ni el nudo en el estómago que siente un inversor real cuando ve su cuenta bancaria caer.

En resumen: La IA no es un humano, pero es el mejor espejo que hemos construido para estudiar los patrones de nuestros propios errores.

¿Ahogado en artículos de tu campo?

Recibe resúmenes diarios de los artículos más novedosos que coincidan con tus palabras clave de investigación — con resúmenes técnicos, en tu idioma.

Probar Digest →