Compression Favors Consistency, Not Truth: When and Why Language Models Prefer Correct Information

Lo studio dimostra che la preferenza dei modelli linguistici per affermazioni corrette non deriva da un intrinseco bias verso la verità, ma è un effetto collaterale della pressione di compressione che favorisce le ipotesi con descrizioni più brevi e internamente coerenti.

Konstantin Krestnikov

Pubblicato 2026-03-13
📖 4 min di lettura☕ Lettura da pausa caffè

Each language version is independently generated for its own context, not a direct translation.

Immagina di avere un cuoco robot (il modello linguistico) il cui unico obiettivo è diventare il più efficiente possibile nel preparare i piatti (prevedere la prossima parola). Il suo mantra è: "Devo scrivere la ricetta più breve e semplice possibile per spiegare tutto quello che ho mangiato finora".

Questo articolo si chiede: Perché questo cuoco a volte sceglie la ricetta giusta (la verità) e a volte quella sbagliata?

La risposta sorprendente è: non gli importa della verità. Gli importa solo della "compressione".

Ecco la spiegazione semplice, divisa per concetti chiave con delle analogie.

1. Il Principio della "Borsa da Viaggio" (Compressione)

Immagina che il cuoco debba portare tutti i suoi libri di cucina in una borsa da viaggio molto piccola.

  • Se c'è una regola vera (es. "2 + 2 = 4") che funziona per tutto, può scrivere una sola riga: "La somma è la somma". È brevissimo.
  • Se ci sono errori casuali (es. "2 + 2 = 5", "3 + 3 = 7", "1 + 1 = 3" senza logica), il cuoco non può scrivere una regola unica. Deve scrivere ogni errore a parte: "Ricetta A: 2+2=5. Ricetta B: 3+3=7...". La borsa si riempie subito!

La scoperta: Il cuoco preferisce la verità solo quando gli errori sono così disordinati che non riescono a stare nella borsa. Se gli errori sono disordinati, la verità vince perché è più "comprimibile".

2. L'Inganno della "Falsa Coerenza"

Qui arriva il punto cruciale. Cosa succede se gli errori non sono disordinati, ma formano una falsa regola logica?

Immagina che il cuoco impari una regola falsa ma coerente: "In questo mondo, 2 + 2 fa sempre 5".

  • Questa regola è breve (una sola riga).
  • È coerente (funziona sempre allo stesso modo).
  • Per il cuoco, questa regola falsa è perfettamente uguale alla regola vera in termini di spazio nella borsa.

Risultato: Quando gli errori sono "coerenti" (hanno una loro logica interna), il cuoco non ha motivo di scegliere la verità. Sceglie a caso, o segue semplicemente la regola che ha visto più spesso. La "verità" perde il suo vantaggio. È come se due squadre di calcio avessero la stessa tattica perfetta: non c'è motivo per preferirne una sull'altra solo perché una è "giusta" e l'altra "sbagliata".

3. L'Esperimento del "Controllo di Qualità"

Gli autori hanno provato a ingannare il cuoco inserendo dei "controlli" (verifiche) nel testo.

  • Senza controllo: Il cuoco segue la regola falsa coerente ("2+2=5") senza problemi.
  • Con controllo: Aggiungono un passaggio che dice: "Controlla il risultato: se metti 2 mele e 2 mele, ne trovi 4, non 5".

Questo controllo rompe la coerenza della regola falsa. Ora, per spiegare perché la regola dice "5" ma il controllo dice "4", il cuoco deve scrivere una spiegazione complicata e lunga. La regola falsa diventa "ingombrante".
Risultato: Appena la regola falsa diventa scomoda da spiegare, il cuoco torna a preferire la verità.

4. Cosa succede quando il cuoco diventa più grande?

Hanno provato con cuochi di diverse dimensioni (dai piccoli ai grandi).

  • Con errori casuali: I cuochi più grandi diventano ancora bravi a scartare gli errori disordinati e preferire la verità.
  • Con errori coerenti: Anche i cuochi giganti faticano a distinguere la verità dalla bugia logica. Rimangono confusi, perché entrambe le regole stanno comodamente nella loro borsa.

In sintesi: La morale della favola

Il modello linguistico non è un "cercatore di verità" filosofico. È un ottimizzatore di spazio.

  • La verità vince quando le bugie sono un caos disordinato e difficile da spiegare (come un mucchio di mattoni sparsi).
  • La verità perde quando le bugie sono organizzate in un sistema logico e coerente (come un castello di carte ben costruito).

Perché è importante?
Questo ci dice che non possiamo fidarci ciecamente dell'AI solo perché è "addestrata su dati veri". Se qualcuno crea una teoria falsa ma interna-mente coerente e logica (come una teoria del complotto ben scritta), l'AI potrebbe adottarla con la stessa convinzione della verità, perché per il suo "cervello" matematico, entrambe le teorie sono ugualmente efficienti da memorizzare.

L'AI cerca la coerenza, non la realtà. Se vuoi che dica la verità, devi assicurarti che le sue alternative false siano così disordinate e incoerenti da non poter essere compresse nella sua "borsa".