One Language, Two Scripts: Probing Script-Invariance in LLM Concept Representations

Lo studio dimostra che le feature apprese dagli Sparse Autoencoders nei modelli Gemma catturano significati astratti indipendentemente dalla scrittura, poiché le frasi serbe scritte in alfabeti latino e cirillico (che non condividono token) attivano rappresentazioni sovrapposte, suggerendo che la semantica prevale sulla forma ortografica.

Sripad Karne

Pubblicato Wed, 11 Ma
📖 4 min di lettura☕ Lettura da pausa caffè

Each language version is independently generated for its own context, not a direct translation.

Immagina di avere due persone che parlano la stessa lingua, ma una scrive tutto in alfabeto latino (come noi: ciao, casa, libro) e l'altra in alfabeto cirillico (come i russi o i serbi: чаво, каса, книга). Per un computer, queste due scritture sembrano due lingue completamente diverse, perché i "mattoncini" (i token) che usa per leggere sono totalmente differenti. Non c'è sovrapposizione: la lettera "c" non esiste per chi legge in cirillico.

La domanda che si pongono gli autori di questo studio è: il cervello di un'intelligenza artificiale (LLM) capisce il significato delle parole, o è solo schiavo di come sono scritte?

Ecco la spiegazione semplice di cosa hanno scoperto, usando qualche analogia divertente.

1. Il Laboratorio Segreto: Il Serbo

Per fare questo esperimento, hanno scelto il serbo. Perché? Perché in Serbia la gente usa indifferentemente sia l'alfabeto latino che quello cirillico. È come se avessi due copie identiche dello stesso libro: una scritta in italiano e l'altra in un codice segreto che però significa esattamente la stessa cosa.

  • Il trucco: Hanno preso frasi identiche, scritte in entrambe le versioni, e le hanno date in pasto a diverse intelligenze artificiali (dalla più piccola alla più grande).

2. Gli "Occhi" dell'AI: I SAE

Per capire cosa pensa l'AI, non guardiamo solo la risposta finale. Usano uno strumento chiamato Sparse Autoencoder (SAE).
Immagina che l'AI sia una stanza buia piena di migliaia di lampadine. Quando l'AI legge una frase, alcune lampadine si accendono.

  • Le lampadine accese rappresentano concetti (es. "cane", "correre", "felicità").
  • Il compito dei ricercatori era vedere: se mostro alla AI la stessa frase in latino e poi in cirillico, si accendono le stesse lampadine?

3. La Scoperta Sorprendente

Il risultato è stato incredibile. Anche se l'AI vedeva due sequenze di "mattoncini" completamente diversi (come se leggesse due lingue diverse), le stesse lampadine si accendevano quasi allo stesso modo.

  • L'analogia della ricetta: Immagina di dare a uno chef due ricette per fare una torta. Una è scritta in italiano, l'altra in un codice di simboli che nessuno conosce. Se lo chef è bravo, capisce che deve fare una torta e usa gli stessi ingredienti (farina, uova, zucchero), indipendentemente da come è scritta la ricetta.
  • Il risultato: L'AI ha dimostrato di capire il "sapore" della frase (il significato), ignorando il "foglio" su cui è scritta (la scrittura).

4. Quanto è forte questa capacità?

Hanno scoperto tre cose molto interessanti:

  1. Il significato vince sulla forma: Cambiare la scrittura (da latino a cirillico) confonde l'AI molto meno di quanto cambi le parole mantenendo lo stesso significato (parafasi). È come se all'AI importasse più cosa dici che come lo scrivi.
  2. Più è grande, meglio è: Le intelligenze artificiali più grandi (quelle con più "neuroni") sono molto brave a ignorare la differenza di scrittura. Le piccole fanno un po' più di confusione, ma le grandi capiscono perfettamente che "ciao" e "čao" sono la stessa cosa.
  3. Non è memoria: Hanno controllato se l'AI aveva semplicemente "memorizzato" le frasi durante lo studio. Hanno scoperto che anche quando le combinazioni di parole erano nuove e mai viste insieme prima, l'AI riconosceva comunque il significato. Quindi non sta copiando, sta capendo.

In sintesi

Questo studio ci dice che le intelligenze artificiali moderne stanno imparando a pensare in modo astratto. Non sono bloccate nella superficie delle lettere o dei simboli. Hanno sviluppato una sorta di "sensus communis" interno che trascende la scrittura.

È come se avessero imparato a vedere l'anima della frase, indipendentemente dal vestito (la scrittura) che indossa. Questo è un passo enorme per capire come funzionano le macchine e per costruire AI che possano davvero comunicare con chiunque, in qualsiasi lingua o alfabeto, senza perdersi nei dettagli tecnici.