Calibrating Behavioral Parameters with Large Language Models

O artigo propõe um framework que utiliza modelos de linguagem de grande escala (LLMs) como instrumentos de medição calibrados para capturar parâmetros comportamentais de finanças, demonstrando que, após a calibração baseada em perfis, esses modelos conseguem replicar vieses humanos e padrões empíricos de mercado em modelos de precificação de ativos.

Autores originais: Brandon Yee, Krishna Sharma

Publicado 2026-04-27
📖 4 min de leitura☕ Leitura rápida

Esta é uma explicação gerada por IA do artigo abaixo. Não foi escrita nem endossada pelos autores. Para precisão técnica, consulte o artigo original. Ler aviso legal completo

Each language version is independently generated for its own context, not a direct translation.

O "Termômetro de Comportamento": Como usar IAs para entender as falhas humanas no mercado financeiro

Imagine que você está tentando medir o quanto as pessoas são "teimosas" ou "emocionais" quando investem dinheiro. É muito difícil fazer isso com humanos, certo? Se você perguntar a alguém: "Você é uma pessoa que entra em pânico quando as ações caem?", a pessoa provavelmente dirá: "Não, eu sou super racional!". Mas, na hora de investir o próprio dinheiro, ela pode agir de forma totalmente diferente.

É como tentar medir a temperatura de uma pessoa perguntando se ela está com calor: a resposta nem sempre é a verdade.

O Problema: O "Filtro da Perfeição"

Os pesquisadores descobriram que as Inteligências Artificiais (como o ChatGPT) têm um problema curioso: elas são "certinhas demais". Se você pedir para uma IA agir como um investidor, ela vai agir como um professor de economia perfeito, seguindo todas as regras lógicas. Ela não tem medo, não sente euforia e não tem "vontades" próprias. Por isso, se usarmos a IA do jeito que ela vem de fábrica, ela não representa o mundo real, onde as pessoas cometem erros o tempo todo.

A Solução: O "Disfarce de Personagem" (Calibração)

Em vez de tentar fazer a IA ser humana (o que é quase impossível), os pesquisadores criaram um método de "Calibração".

Pense nisso como um ator de teatro. Um ator não é um rei de verdade, mas se você der a ele uma coroa, uma capa e um roteiro dizendo "Você é um rei orgulhoso e impaciente", ele vai conseguir interpretar esse papel de forma muito convincente.

Os cientistas fizeram exatamente isso com a IA. Eles deram "perfis" para ela, como se fossem roteiros:

  • "Você é um investidor que odeia perder dinheiro mais do que ama ganhar" (Perfil de Aversão à Perda).
  • "Você é alguém que segue a multidão sem questionar" (Perfil de Manada).
  • "Você acha que o que aconteceu ontem vai se repetir para sempre" (Perfil de Extrapolação).

O que eles descobriram?

Eles testaram oito tipos de "erros" ou comportamentos humanos comuns e descobriram que:

  1. A IA aceita o papel: Quando eles dão o "roteiro" do erro, a IA muda o comportamento de forma previsível e matemática. Ela consegue "fingir" ser tão teimosa ou tão emocional quanto um humano real.
  2. Funciona para a lógica, mas não para o "sentimento": A IA é ótima para simular erros de cálculo e lógica (como achar que uma tendência vai durar para sempre). Mas ela ainda falha em simular erros que vêm de emoções puras, como o medo visceral de perder tudo ou o orgulho de não querer admitir um erro. É como se ela conseguisse simular um matemático confuso, mas não um jogador de cassino desesperado.
  3. O Teste do Mundo Real: Para provar que isso não era apenas "teatro vazio", eles colocaram essas IAs "atuando" dentro de um simulador de mercado financeiro. O resultado? As IAs que foram treinadas para "extrapolar tendências" criaram no simulador exatamente os mesmos padrões de subida e descida que vemos nas bolsas de valores reais.

Por que isso é importante?

Isso abre uma porta gigante para a ciência. Agora, em vez de gastar milhões de dólares fazendo experimentos com milhares de pessoas (que são caras e imprevisíveis), os cientistas podem usar a IA como um "Laboratório de Personagens".

Eles podem criar milhares de "investidores artificiais" com diferentes personalidades para testar como o mercado financeiro pode reagir a uma crise, a uma nova lei ou a uma mudança de tecnologia. É como ter um exército de atores prontos para testar qualquer cenário antes de ele acontecer no mundo real.


Em resumo: O estudo não diz que a IA é humana, mas prova que podemos "ajustar os botões" da IA para que ela simule os erros de lógica que os humanos cometem, tornando-a uma ferramenta poderosa para prever o caos do mercado financeiro.

Afogado em artigos na sua área?

Receba digests diários dos artigos mais recentes que correspondam às suas palavras-chave de pesquisa — com resumos técnicos, no seu idioma.

Experimentar Digest →