Evaluating Adjective-Noun Compositionality in LLMs: Functional vs Representational Perspectives

Il documento evidenzia una significativa discrepanza tra le rappresentazioni interne composizionali e le prestazioni funzionali nei modelli linguistici di grandi dimensioni, sottolineando la necessità di valutazioni contrastive per una comprensione completa delle loro capacità.

Ruchira Dhar, Qiwei Peng, Anders Søgaard

Pubblicato 2026-03-12
📖 4 min di lettura☕ Lettura da pausa caffè

Each language version is independently generated for its own context, not a direct translation.

Immagina che i grandi modelli linguistici (LLM), come quelli che usi per scrivere email o generare storie, siano come chef molto esperti in una cucina di lusso.

La domanda centrale di questo studio è: questi chef capiscono davvero come funzionano gli ingredienti, o sono solo bravissimi a imitare le ricette che hanno visto milioni di volte?

Gli autori del paper, Ruchira Dhar, Qiwei Peng e Anders Søgaard, hanno deciso di mettere alla prova questi "chef" con un compito specifico: capire come si combinano gli aggettivi con i sostantivi (ad esempio, "cane veloce" vs "cane da corsa").

Ecco cosa hanno scoperto, spiegato con parole semplici e qualche metafora creativa.

1. I Due Modi per Guardare lo Chef

Per capire se un modello è davvero intelligente, gli scienziati hanno usato due metodi di valutazione molto diversi, come se volessero giudicare lo chef in due modi opposti:

  • Metodo 1: Il "Test di Gusto" (Valutazione Funzionale)
    Qui si chiede allo chef di cucinare un piatto e si vede se il cliente (il compito) è soddisfatto. Se il modello risponde correttamente alla domanda, passa il test. È come chiedere: "Se ti dico 'il ladro presunto è stato arrestato', capisci che non è un ladro vero?"
  • Metodo 2: La "Radiografia della Mente" (Valutazione Rappresentazionale)
    Qui non ci importa del piatto finito. Ci interessa guardare dentro la testa dello chef mentre cucina. Analizziamo i suoi "pensieri" (i dati interni del modello) per vedere se, mentre mescola gli ingredienti, ha effettivamente creato una struttura logica che distingue "cane veloce" da "cane da corsa". È come usare una radiografia per vedere se le ossa dello chef sono allineate correttamente, anche se il piatto finale sembra perfetto.

2. La Grande Sorpresa: Il Paradosso

Ecco il colpo di scena che rende questo studio così interessante. I risultati mostrano una strana discrepanza:

  • Nella "Radiografia" (Metodo 2): I modelli sembrano geniali. All'interno del loro cervello digitale, le informazioni sono organizzate perfettamente. Sanno esattamente come un aggettivo modifica un sostantivo. È come se lo chef, guardando gli ingredienti, sapesse esattamente come si comportano chimicamente. La loro "mente" è composizionale: capisce le regole.
  • Nel "Test di Gusto" (Metodo 1): Quando si chiede loro di usare questa conoscenza per rispondere a una domanda, spesso falliscono. A volte, più il modello è grande o più è stato addestrato a seguire istruzioni, peggio si comporta nel compito pratico. È come se lo chef avesse la conoscenza perfetta della chimica degli ingredienti, ma quando arriva il momento di servire il piatto, lo bruci o lo serva al contrario.

3. L'Analogia del "Libro di Ricette vs. Intuito"

Immagina di avere un modello linguistico come un studente di medicina:

  • La Radiografia ci dice che lo studente ha studiato l'anatomia a memoria: sa dove sono i muscoli, le ossa e i nervi. La sua conoscenza interna è solida.
  • Il Test di Gusto è quando lo studente deve operare un paziente. Sorprendentemente, a volte, nonostante sappia tutto l'anatomia, sbaglia l'operazione o non riesce a collegare i puntini.

Il paper scopre che per questi modelli, sapere (internamente) e fare (esternamente) sono due cose diverse.

4. Cosa succede quando li rendiamo "più grandi"?

Spesso pensiamo che se rendiamo un modello più grande (aggiungendo più parametri) o lo addestriamo meglio a seguire le istruzioni, diventerà automaticamente più intelligente in tutto.
Gli autori hanno scoperto che non è così.

  • Rendere il modello più grande o fargli seguire istruzioni a volte peggiora la sua capacità di rispondere correttamente a questi test di logica, anche se la sua "radiografia interna" rimane perfetta.
  • È come se, rendendo lo chef più famoso e facendogli seguire regole rigide, diventasse più rigido e meno capace di applicare la sua intuizione naturale.

5. La Lezione Principale: Non fidatevi solo dell'aspetto esteriore

La conclusione fondamentale è che non possiamo giudicare un modello linguistico solo guardando se risponde giusto o sbagliato alle domande.

  • Se guardiamo solo il risultato (il piatto finito), potremmo pensare che il modello non capisca la logica.
  • Se guardiamo solo i dati interni (la radiografia), potremmo pensare che sia un genio.

La verità sta nel mezzo: il modello possiede la conoscenza, ma fatica a esprimerla correttamente quando gli chiediamo di farlo.

Perché è importante?

Questo studio ci avverte che quando usiamo l'Intelligenza Artificiale per cose serie (come diagnosi mediche, guida autonoma o decisioni legali), non basta dire "il modello ha risposto giusto 9 volte su 10". Dobbiamo capire come ragiona. Se c'è una discrepanza tra ciò che sa e ciò che fa, potremmo avere dei rischi nascosti.

In sintesi: I modelli hanno la "mente" giusta, ma a volte hanno la "bocca" sbagliata. Per capire davvero quanto sono intelligenti, dobbiamo guardare sia il loro comportamento che la loro struttura interna, non solo uno dei due.