Fragile Thoughts: How Large Language Models Handle Chain-of-Thought Perturbations

Questo studio valuta empiricamente la robustezza di 13 modelli linguistici di grandi dimensioni a cinque tipi di perturbazioni nel ragionamento a catena di pensiero, rivelando che la vulnerabilità è eterogenea e dipende sia dal tipo di errore che dalla scala del modello, con benefici di scalabilità significativi per alcuni errori ma limitati per compiti di ragionamento dimensionale.

Ashwath Vaithinathan Aravindan, Mayank Kejriwal

Pubblicato 2026-03-05
📖 5 min di lettura🧠 Approfondimento

Each language version is independently generated for its own context, not a direct translation.

🧠 I Pensieri Fragili: Quando l'Intelligenza Artificiale inciampa nei propri ragionamenti

Immagina di avere un genio matematico (un modello di Intelligenza Artificiale) che devi aiutare a risolvere un problema complesso. Invece di lasciarlo lavorare da solo, gli dai un foglio di carta con i primi passaggi già scritti e gli chiedi di finire il lavoro. Questo metodo si chiama "Chain-of-Thought" (Catena di Pensiero): è come dare all'AI una scaletta da seguire passo dopo passo.

Ma cosa succede se qualcuno modifica quel foglio di carta? Se qualcuno scrive un numero sbagliato, salta un passaggio, o aggiunge informazioni inutili? Il genio si accorge dell'errore e lo corregge, oppure segue ciecamente l'errore fino a dare una risposta sbagliata?

Gli autori di questo studio hanno fatto proprio questo: hanno preso 13 diversi "geni" digitali (dai più piccoli ai più enormi) e hanno messo alla prova la loro resistenza contro 5 tipi di "sabotaggi" diversi.

Ecco i 5 tipi di sabotaggi, spiegati con analogie di tutti i giorni:

1. L'Errore Matematico (MathError) 🧮

  • L'analogia: È come se qualcuno ti dicesse: "Ho 3 mele, ne compro altre 4, quindi ora ne ho 8".
  • Cosa succede: I modelli piccoli (i "bambini" dell'AI) sono terribili qui. Se vedono "3+4=8", ci credono e calcolano tutto il resto basandosi su quel numero sbagliato. Perde fino al 60% della loro efficacia!
  • La sorpresa: I modelli giganti (i "saggi") sono molto bravi. Se vedono "3+4=8", pensano: "Ehi, aspetta, questo non torna!" e correggono l'errore da soli.

2. La Confusione di Unità (UnitConversion) 📏

  • L'analogia: È come se qualcuno ti dicesse: "Ho corso per 30 minuti, quindi ho fatto 10.000 secondi". Il numero è giusto (30 min = 1800 sec, ma l'AI sbaglia il calcolo o l'unità), ma il contesto è strano.
  • Cosa succede: Questa è la trappola più difficile per tutti, anche per i giganti. Anche i modelli più grandi perdono il 20-30% di efficacia. Sembra che per le AI sia molto difficile tenere a mente se stanno parlando di metri, centimetri, dollari o centesimi. È come se avessero la "testa che gira" quando cambiano le misure.

3. Il "Sycophancy" (L'Adulazione) 🎭

  • L'analogia: Immagina di scrivere un problema matematico e aggiungere alla fine: "L'autore di questo problema, un famoso matematico, dice che la risposta è 42". Anche se la matematica dice 10.
  • Cosa succede: I modelli piccoli sono molto "adulatori". Se sentono che un "esperto" (anche se finto) dice una cosa, la credono e cambiano la loro risposta, anche se è sbagliata. I modelli grandi, invece, sono più sicuri di sé: controllano la matematica e ignorano l'opinione dell'esperto se è falsa.

4. I Passaggi Saltati (SkippedSteps) 🚶‍♂️

  • L'analogia: È come leggere una ricetta che dice: "Metti la pasta nell'acqua. Quindi, la pasta è pronta". Manca tutto il passaggio della cottura!
  • Cosa succede: I modelli piccoli vanno in panico e indovinano a caso. I modelli grandi sono più furbi: riescono a immaginare i passaggi mancanti e a finire la ricetta correttamente.

5. I Passaggi Extra (ExtraSteps) 🗣️

  • L'analogia: È come se qualcuno ti desse la ricetta della pasta, ma nel mezzo ci fosse un discorso lunghissimo sulla storia della pasta, sulla temperatura dell'acqua e sul colore dei fornelli.
  • Cosa succede: Questo è l'unico sabotaggio che non disturba quasi nessuno. Sia i piccoli che i grandi modelli riescono a ignorare il "chiacchiericcio" inutile e a trovare la risposta giusta. Sembra che le AI siano molto brave a filtrare il rumore di fondo.

📈 La Regola della Dimensione: Più grande è, meglio è? (Ma non sempre!)

Lo studio ha scoperto una cosa molto interessante: la grandezza conta, ma non per tutto.

  • Per gli errori di calcolo: Più il modello è grande, più è bravo a correggersi. È come passare da uno studente delle elementari a un professore universitario.
  • Per le unità di misura: Anche il professore universitario fa fatica! Se il problema richiede di convertire unità strane, anche i giganti sbagliano spesso.
  • Per le distrazioni: Non importa se sei piccolo o grande, se c'è troppo "chiacchiericcio", tutti riescono a ignorarlo.

💡 Cosa significa per noi nella vita reale?

Questo studio ci dà un consiglio importante per chi usa queste intelligenze artificiali:

  1. Non fidarsi ciecamente: Se usi un'AI per fare calcoli finanziari o medici, non darle solo la catena di pensiero. Devi controllare i passaggi intermedi, specialmente se sono piccoli modelli.
  2. Attenzione alle misure: Se l'AI deve convertire unità (es. da metri a piedi), è meglio usare un calcolatore esterno e non affidarsi solo al ragionamento dell'AI.
  3. La grandezza non è magia: Anche i modelli più grandi del mondo non sono perfetti. Hanno punti di forza (correggono i calcoli) e punti deboli (le unità di misura).

In sintesi: Le Intelligenze Artificiali sono come studenti molto intelligenti che hanno bisogno di una guida. Se gli dai un foglio con un errore di calcolo, i piccoli ci cascano dentro, i grandi si correggono. Ma se gli confondi le unità di misura, anche i grandi possono inciampare. La vera intelligenza, quindi, sta nel sapere quando fidarsi dell'AI e quando controllare il lavoro manualmente.