Calibrating Behavioral Parameters with Large Language Models

Il lavoro propone un framework per utilizzare i Large Language Models come strumenti di misurazione calibrati per i parametri comportamentali, dimostrando che la calibrazione basata su profili permette di replicare con successo i bias cognitivi umani e i pattern di mercato empirici all'interno di modelli di asset pricing.

Autori originali: Brandon Yee, Krishna Sharma

Pubblicato 2026-04-27
📖 4 min di lettura☕ Lettura da pausa caffè

Questa è una spiegazione generata dall'IA dell'articolo qui sotto. Non è stata scritta né approvata dagli autori. Per precisione tecnica, consulta l'articolo originale. Leggi il disclaimer completo

Each language version is independently generated for its own context, not a direct translation.

Il "Termometro dei Pregiudizi": Come usare l'Intelligenza Artificiale per misurare l'irrazionalità umana

Immaginate di voler studiare perché le persone prendono decisioni finanziarie sbagliate. Perché alcuni vendono subito un'azione che sta guadagnando (per paura di perdere il profitto) o perché altri continuano a comprare un titolo solo perché "tutti lo stanno facendo"?

In economia, questi errori si chiamano "bias comportamentali". Studiarli è difficilissimo: se chiedi a una persona "Sei avida?", ti risponderà sempre di no. Se fai un esperimento reale, le persone si comportano in modo diverso perché ci sono in gioco soldi veri e stress. È come cercare di misurare la temperatura di una persona mentre sta correndo una maratona: il risultato è influenzato dal sudore, dalla stanchezza e dall'emozione.

Il problema: Gli esseri umani sono "rumorosi". Sono influenzati dalla fame, dalla paura, dal desiderio di apparire intelligenti o dal fatto che hanno appena ricevuto uno stipendio.

La soluzione proposta dai ricercatori: Invece di usare persone, usiamo i Large Language Models (LLM), come ChatGPT, ma non come "persone simulate", bensì come strumenti di misura calibrati.


L'analogia del Termometro e del Colore

Immaginate che l'Intelligenza Artificiale sia un termometro.

Di base, l'IA è un po' "troppo razionale". Se le chiedete di investire, lei risponde come un libro di matematica perfetto: non ha paura, non è avida, non segue la massa. È come un termometro che segna sempre 36,5°C perché è programmato per essere "neutro". Ma noi non vogliamo un termometro neutro; vogliamo un termometro che possiamo "manomettere" per vedere come reagisce il mondo.

I ricercatori hanno fatto una cosa geniale: hanno creato dei "profili psicologici" (dei prompt speciali).

  • Invece di dire all'IA "Sii irrazionale", le hanno detto: "Immagina di essere un investitore che odia perdere anche solo un centesimo".
  • Oppure: "Immagina di essere uno che crede che se il prezzo è salito ieri, salirà sicuramente anche oggi".

È come se avessero preso il termometro e lo avessero immerso in acqua ghiacciata o in acqua bollente per vedere se la scala graduata funziona correttamente. Se, immergendo il termometro nell'acqua bollente, questo segna esattamente 100°C, allora sappiamo che lo strumento è calibrato e affidabile.


Cosa hanno scoperto? (I risultati)

I ricercatori hanno testato otto diversi "errori di pensiero" e hanno scoperto che l'IA è un ottimo strumento per alcuni, ma meno per altri:

  1. I "Campioni" (Dove l'IA funziona benissimo):

    • L'avversione alle perdite: Se dici all'IA di essere una persona che teme le perdite, lei inizia a comportarsi esattamente come un umano che scappa dai rischi.
    • L'effetto gregge: Se le dici che la folla sta andando in una direzione, l'IA "si lascia trascinare" con una precisione sorprendente.
    • L'estrapolazione: Se le mostri un grafico che sale, l'IA "crede" che continuerà a salire, proprio come fanno molti investitori in borsa.
  2. I "Fallimenti" (Dove l'IA non basta):

    • L'emozione pura: L'IA non prova "paura" o "euforia". Non ha il cuore che batte forte quando il mercato crolla. Quindi, i comportamenti legati alle emozioni viscerali (come il panico puro) l'IA non riesce a simularli bene. È come un termometro che misura la temperatura, ma non sa cosa sia il "brivido del freddo".

Perché è importante? (La prova del nove)

Per dimostrare che non stavano solo giocando con i computer, hanno fatto una prova finale: hanno preso questi "pregiudizi artificiali" e li hanno inseriti in un modello di mercato simulato.

Il risultato? Il mercato creato con l'IA "irrazionale" si comportava esattamente come il mercato reale di Wall Street: con momenti di euforia (quando i prezzi salgono troppo) e momenti di correzione (quando i prezzi crollano).

In parole povere: Hanno dimostrato che possiamo usare l'IA come un "laboratorio virtuale" per testare scenari economici complessi senza dover spendere milioni di dollari in esperimenti con persone reali, ottenendo risultati che sono scientificamente coerenti con ciò che accade nel mondo vero.

In sintesi

Il paper dice: "Non usate l'IA per sostituire gli umani, usatela come un microscopio per studiare come funzionano gli errori umani."

Sommerso dagli articoli nel tuo campo?

Ricevi digest giornalieri degli articoli più recenti corrispondenti alle tue parole chiave di ricerca — con riassunti tecnici, nella tua lingua.

Prova Digest →