ReasonXL: Shifting LLM Reasoning Language Without Sacrificing Performance

Il paper introduce ReasonXL, un vasto corpus parallelo di tracce di ragionamento in cinque lingue europee, e dimostra che è possibile adattare i modelli linguistici a ragionare nativamente in una lingua target senza sacrificare le prestazioni, rivelando inoltre una divisione funzionale negli strati del modello e l'efficienza dell'apprendimento per rinforzo rispetto al fine-tuning supervisionato.

Daniil Gurgurov, Tom Röhr, Sebastian von Rohrscheidt, Josef van Genabith, Alexander Löser, Simon Ostermann

Pubblicato 2026-04-15
📖 4 min di lettura☕ Lettura da pausa caffè

Each language version is independently generated for its own context, not a direct translation.

Immagina che i grandi modelli di intelligenza artificiale (come quelli che usi per scrivere email o risolvere problemi) siano come cucinatori stellati. Questi cuochi sono bravissimi, ma c'è un problema: quando devono preparare una ricetta complessa (il "ragionamento"), anche se gli chiedi di cucinare in italiano, francese o spagnolo, loro pensano e mormorano le istruzioni in inglese nella loro testa.

Per un utente italiano, è come se il cuoco ti dicesse: "Ok, prendi la farina, mescola..." ma poi, mentre lavora, sussurra: "Okay, take the flour, mix it...". Tu capisci il risultato finale (il piatto è buono), ma non segui il processo. Questo crea sfiducia e rende difficile capire come è arrivato alla soluzione.

Il paper ReasonXL vuole risolvere esattamente questo: insegnare al cuoco a pensare e ragionare nella tua lingua madre, senza però rovinare la qualità del piatto.

Ecco come hanno fatto, diviso in tre passaggi magici:

1. Il Libro di Ricette Bilingue (ReasonXL)

Prima di tutto, i ricercatori hanno avuto bisogno di un manuale. Fino a ieri, esistevano milioni di ricette in inglese, ma pochissime in altre lingue che mostrassero come si pensa passo dopo passo.
Hanno creato ReasonXL, una gigantesca libreria di 2 milioni di esempi in cinque lingue (Inglese, Tedesco, Francese, Italiano, Spagnolo).

  • L'analogia: Immagina di prendere un libro di matematica scritto in inglese e tradurlo non solo le domande e le risposte, ma anche tutto il ragionamento intermedio ("Ok, prima faccio questo, poi quello..."). Hanno fatto questo per milioni di pagine, creando un "ponte" perfetto tra le lingue.

2. L'Addestramento in Due Fasi (Il Metodo)

Una volta avuti i libri, hanno dovuto insegnare al modello a usarli. Lo hanno fatto in due tappe, come un allenatore sportivo:

  • Fase 1: La Lezione (SFT - Supervised Fine-Tuning)
    Hanno mostrato al modello milioni di esempi in cui il ragionamento avveniva nella lingua target (es. italiano).

    • Risultato: Il modello ha imparato a parlare italiano, ma è diventato un po' "pigro" o confuso nella logica. È come se avesse imparato a parlare italiano, ma avesse dimenticato un po' di matematica. Il ragionamento era nella lingua giusta, ma la qualità era scesa.
  • Fase 2: Il Allenamento con il Coach (RL - Reinforcement Learning)
    Qui è dove succede la magia. Hanno usato un sistema di premi e punizioni (come un videogioco).

    • Se il modello risolveva il problema correttamente E lo spiegava nella lingua giusta, prendeva un punto.
    • Se sbagliava o tornava a pensare in inglese, prendeva una penalità.
    • Risultato: Il modello ha "ripreso la forma". Ha recuperato la sua intelligenza matematica mantenendo la capacità di ragionare in italiano. Alla fine, ragionava in italiano con la stessa (o migliore) precisione di quando ragionava in inglese.

3. La Radiografia del Cervello (Cosa hanno scoperto)

La parte più affascinante è che hanno fatto una "radiografia" del cervello del modello per capire dove è cambiato. Hanno scoperto due cose sorprendenti:

  • Il "Collo di Bottiglia" Linguistico (I primi strati):
    Hanno scoperto che c'è una piccola sezione all'inizio del cervello del modello (gli strati 6-8) che funge da interruttore. È lì che si decide in quale lingua parlare. Se si cambia questa piccola parte, tutto il resto del ragionamento segue quella lingua. È come se ci fosse un portiere all'ingresso che decide se far entrare il pensiero in italiano o in inglese.
  • Il "Motore" della Logica (Gli strati superiori):
    La parte "intelligente" che risolve i problemi complessi si trova negli strati più alti. Lì è dove il modello ha imparato a essere bravo in matematica.
    • La scoperta: Il metodo di addestramento (RL) è stato così efficiente che ha modificato pochissimi "cavi" nel cervello, ma ha ottenuto un cambiamento enorme nel comportamento. È come se avessi cambiato un solo ingranaggio in un orologio e tutto il meccanismo avesse iniziato a funzionare meglio.

In sintesi

Questo studio ci dice che non è necessario pensare in inglese per essere intelligenti.
Grazie a ReasonXL, abbiamo dimostrato che possiamo "reindirizzare" l'intelligenza artificiale affinché pensi e ragioni direttamente nella nostra lingua, mantenendo (e talvolta migliorando) la sua capacità di risolvere problemi difficili.

È come se avessimo insegnato al cuoco stellato a cucinare la pasta alla carbonara pensando direttamente in italiano, senza dover prima tradurre mentalmente le istruzioni dall'inglese, rendendo il processo più trasparente, fidato e naturale per tutti noi.

Ricevi articoli come questo nella tua casella di posta

Digest giornalieri o settimanali personalizzati in base ai tuoi interessi. Riassunti Gist o tecnici, nella tua lingua.

Prova Digest →