Extracting Recurring Vulnerabilities from Black-Box LLM-Generated Software

Questo studio introduce FSTab, un metodo per identificare e valutare le vulnerabilità ricorrenti nei software generati da LLM tramite un attacco in black-box che prevede le falle nel backend basandosi sulle funzionalità frontend, rivelando così rischi di sicurezza significativi e trasferibili tra diversi domini applicativi.

Tomer Kordonsky, Maayan Yamin, Noam Benzimra, Amit LeVi, Avi Mendelson

Pubblicato 2026-03-10
📖 4 min di lettura☕ Lettura da pausa caffè

Each language version is independently generated for its own context, not a direct translation.

Immagina di aver appena assunto un architetto molto intelligente, ma un po' "robotico", per costruire la tua casa. Questo architetto è un'Intelligenza Artificiale (LLM) specializzata nel scrivere codice per software. È veloce, creativo e costruisce case bellissime in pochi secondi.

Tuttavia, c'è un problema: questo architetto ha delle abitudini fisse. Se gli chiedi di costruire un cancello, lo costruirà sempre nello stesso modo, anche se quel modo ha un difetto nascosto (ad esempio, la serratura è troppo facile da forzare). Se gli chiedi di costruire una finestra, userà sempre lo stesso tipo di vetro fragile.

Il problema è che tu, come proprietario di casa (l'utente o l'attaccante), vedi solo la facciata della casa (il sito web, i pulsanti, le finestre). Non puoi vedere le fondamenta o le tubature nascoste dietro i muri (il codice backend), perché sono segrete.

Ecco di cosa parla questo studio, spiegato in modo semplice:

1. Il Concetto: "L'Impronta Digitale dei Difetti"

Gli autori hanno scoperto che ogni modello di intelligenza artificiale ha un "impronta digitale" unica nei suoi errori.
Proprio come un muratore che usa sempre lo stesso tipo di malta sbagliata, ogni AI tende a ripetere gli stessi errori di sicurezza ogni volta che crea una funzione specifica (come un login o un upload di file).

  • L'analogia: Immagina che ogni AI sia un cuoco. Se il "Cuoco A" fa sempre la pasta con troppa sale, e il "Cuoco B" la fa sempre con troppa acqua, basta assaggiare il piatto per capire chi l'ha cucinato, anche senza vedere la ricetta. Allo stesso modo, basta guardare cosa fa il software (es. "c'è un pulsante per resettare la password") per sapere quali errori di sicurezza sono nascosti dietro, senza dover leggere il codice.

2. La Soluzione: La "Tabella dei Segreti" (FSTab)

Gli autori hanno creato uno strumento chiamato FSTab (Feature–Security Table).
Pensa a FSTab come a una mappa del tesoro o a un dizionario dei difetti.

  • Come funziona:
    1. Hanno fatto costruire all'AI migliaia di siti web e programmi.
    2. Hanno analizzato questi programmi per vedere quali "punti deboli" (vulnerabilità) si nascondevano dietro ogni "pulsante" o "funzione" visibile.
    3. Hanno creato una tabella che dice: "Se vedi il pulsante 'Login', e sai che è stato fatto dal 'Cuoco A' (es. GPT-5), allora c'è il 90% di probabilità che dietro ci sia una serratura difettosa."

3. L'Attacco: "Vedere l'Invisibile"

Il punto rivoluzionario è che questo attacco funziona in scatola nera (Black-Box).
Non serve essere hacker esperti che sanno leggere il codice sorgente. Basta essere un osservatore attento.

  • La scena: Un hacker arriva al tuo sito. Non ha le chiavi per entrare nel server.
  • L'azione: Guarda la pagina e dice: "Ah, vedo che c'è un modulo per 'Caricare un documento'. So che questo sito è stato fatto dal modello 'Claude'. Secondo la mia tabella FSTab, quando Claude fa questo, lascia sempre una porta aperta."
  • Il risultato: L'hacker può predire esattamente dove cercare il buco di sicurezza e attaccarlo, anche senza aver mai visto il codice interno.

4. La Scoperta Sorprendente: "L'Errore è Universale"

Lo studio ha scoperto che questi errori sono ostinati.

  • Non dipendono dal compito: Che tu chieda all'AI di creare un blog di cucina o un gestionale bancario, se l'AI è la stessa, farà gli stessi errori di sicurezza.
  • Non dipendono dalle parole: Se cambi le parole della richiesta (es. "Fammi un login" invece di "Crea un sistema di autenticazione"), l'AI fa comunque lo stesso errore. È come se l'AI avesse un "muscolo" difettoso che si attiva sempre allo stesso modo.

Perché è importante?

Fino a oggi, pensavamo che la sicurezza fosse un problema che si risolveva controllando il codice dopo averlo scritto. Questo studio ci dice: "No, il problema è l'architetto stesso."

Se sai che un certo modello di AI tende a costruire serrature deboli ogni volta che gli chiedi di fare un login, non devi aspettare di finire la casa per scoprire il problema. Puoi dirlo subito, prima ancora di iniziare a costruire, basandoti solo su cosa vedi dalla strada.

In sintesi

Questo paper ci avverte che l'uso massiccio dell'AI per scrivere software sta creando un nuovo tipo di rischio: software prevedibilmente difettoso.
Gli autori ci danno un "binocolo" (FSTab) che permette di vedere i pericoli nascosti guardando solo la superficie, trasformando la sicurezza informatica da un'arte oscura a una scienza basata su pattern riconoscibili.

Il messaggio finale: Quando usi l'AI per costruire il tuo software, non fidarti ciecamente. Ricorda che ogni "cuoco" AI ha i suoi vizi, e a volte quei vizi possono costare cari.