Multimodal Large Language Models for Low-Resource Languages: A Case Study for Basque

Questo studio dimostra che è possibile sviluppare un modello linguistico multimodale efficace per la lingua basca utilizzando una bassa percentuale di dati multimodali in quella lingua e un modello linguistico di base non adattato, rilasciando al contempo risorse open source per altre lingue a risorse limitate.

Lukas Arana, Julen Etxaniz, Ander Salaberria, Gorka Azkune

Pubblicato 2026-03-05
📖 5 min di lettura🧠 Approfondimento

Each language version is independently generated for its own context, not a direct translation.

Immagina che i Modelli Linguistici Multimodali (MLLM) siano come dei super-assistenti digitali molto intelligenti. Questi assistenti non solo leggono e scrivono testi, ma possono anche "vedere" le immagini, capire cosa c'è dentro e parlarne con te. È come avere un amico che ti guarda una foto e ti racconta una storia, oppure ti risponde a una domanda su quello che vedi.

Il problema è che, finora, questi super-assistenti sono stati addestrati quasi esclusivamente in inglese. Se provi a chiedere loro di descrivere un'immagine in una lingua meno comune, come il basco (una lingua parlata nel nord della Spagna e della Francia, con pochi parlanti rispetto all'inglese), spesso fanno confusione o rispondono male. È come se avessi un chef stellato che cucina divinamente piatti italiani, ma se gli chiedi di preparare un piatto tipico basco, usa ingredienti sbagliati perché non ha mai studiato quella ricetta.

La Missione: Insegnare a cucinare in Basco

Gli autori di questo studio (un gruppo di ricercatori del Centro HiTZ in Spagna) hanno deciso di creare il primo super-assistente capace di "vedere" e "parlare" fluentemente in basco.

Per farlo, hanno dovuto affrontare due grandi ostacoli:

  1. Mancanza di ingredienti: Non esistevano libri di cucina (dataset) che unissero immagini e descrizioni in basco.
  2. Scarsità di cuochi esperti: Non c'erano modelli di base già addestrati specificamente per il basco.

Cosa hanno fatto? (La Ricetta)

1. Hanno creato gli ingredienti da zero
Poiché non esistevano dati, hanno preso enormi quantità di immagini e testi in inglese (che sono abbondanti) e li hanno tradotti in basco.

  • Immagina di prendere un catalogo di milioni di foto con didascalie in inglese e tradurle tutte in basco.
  • Hanno creato sia dati per "allenare" il modello (3 milioni di coppie immagine-testo) sia dei "quiz" per testarlo (8.000 domande e risposte).
  • Hanno anche chiesto a madrelingua baschi di controllare le traduzioni, assicurandosi che non sembrassero robotiche.

2. Hanno scelto due tipi di "cervelli"
Per costruire il loro assistente, hanno usato due diversi modelli di base (i "cervelli" che elaborano le informazioni):

  • Llama: Un modello molto potente, ma nato e cresciuto solo in inglese.
  • Latxa: Un modello simile, ma che era stato già "istruito" e addestrato specificamente per parlare basco.

La domanda era: Serve per forza un cervello che parla già basco per creare un assistente che vede e parla basco?

Le Scoperte Sorprendenti (I Segreti dello Chef)

Dopo aver fatto molti esperimenti, hanno scoperto tre cose molto importanti che cambiano il modo di pensare:

1. Non serve una montagna di dati in basco
Hanno scoperto che non serve tradurre tutto in basco. Se mescoli l'80% di dati in inglese e solo il 20% di dati in basco, il modello funziona benissimo!

  • L'analogia: È come se imparassi a suonare il violino in un'orchestra internazionale. Anche se ascolti per lo più musica classica inglese, se ascolti il 20% di musica basca, riesci a suonare perfettamente anche i brani baschi. Non serve che l'intero concerto sia nella tua lingua.

2. Non serve un "cervello" nato in basco
Questa è la scoperta più scioccante. Hanno visto che il modello Llama (quello inglese) ha funzionato tanto bene quanto il modello Latxa (quello basco).

  • L'analogia: Pensavamo che per parlare bene il basco servisse un madrelingua. Invece, hanno scoperto che un "turista" molto intelligente (Llama), se gli dai le giuste istruzioni e un po' di pratica in basco, diventa un esperto tanto quanto un nativo. Non serve che il modello sia nato in Basque Country per capire il Basque Country.

3. Il testo aiuta a vedere meglio
Hanno notato che aggiungere testi in basco (senza immagini) all'allenamento ha aiutato il modello a capire meglio anche le immagini in basco.

  • L'analogia: È come studiare la grammatica di una lingua (testo) per capire meglio i film in quella lingua (immagini). Anche senza vedere il film, conoscere la lingua ti aiuta a interpretare le scene.

Perché è importante?

Fino ad oggi, creare un assistente intelligente per una lingua piccola era costosissimo e difficile, perché servivano enormi quantità di dati specifici.
Questo studio dice: "Fermatevi! Non serve tutto quel lavoro."

Se vuoi creare un assistente per una lingua rara (come il basco, ma anche il sardo, il gallese o il swahili), puoi:

  1. Prendere un modello potente in inglese.
  2. Aggiungere una piccola percentuale di dati tradotti nella tua lingua.
  3. Aggiungere un po' di testo nella tua lingua.

Il risultato sarà un assistente eccellente, senza dover spendere anni a raccogliere milioni di dati specifici. Hanno aperto la strada per rendere l'intelligenza artificiale accessibile a tutte le lingue del mondo, non solo a quelle più parlate.

In sintesi: Hanno dimostrato che per insegnare a un'intelligenza artificiale a "vedere" in una lingua piccola, basta un po' di pazienza e un po' di traduzione, senza bisogno di ricominciare tutto da zero.