Know When to Abstain: Optimal Selective Classification with Likelihood Ratios

Questo lavoro propone nuovi metodi per la classificazione selettiva basati sul lemma di Neyman-Pearson e sui rapporti di verosimiglianza, dimostrando che tale approccio supera le tecniche esistenti, specialmente in scenari di covariate shift.

Alvin Heng, Harold Soh

Pubblicato 2026-03-04
📖 4 min di lettura☕ Lettura da pausa caffè

Each language version is independently generated for its own context, not a direct translation.

Immagina di essere un barista esperto in un caffè molto affollato. La tua abilità è preparare il caffè perfetto per ogni cliente che entra. Tuttavia, ogni tanto arriva un cliente che ordina qualcosa di strano, o forse è un giorno di pioggia e i clienti sono nervosi e confusi. Se provi a fare il caffè per tutti, rischi di sbagliare e servire una tazza bruciata o troppo acida, rovinando la reputazione del bar.

La soluzione intelligente? Saper dire "Non lo so".

Questo è il cuore del lavoro presentato in questo articolo: "Saper quando astenersi" (Know When to Abstain). Gli autori, Alvin Heng e Harold Soh, propongono un nuovo modo per insegnare alle intelligenze artificiali (AI) a riconoscere quando sono insicure e a fermarsi prima di fare un errore, invece di indovinare a caso.

Ecco come funziona, spiegato con parole semplici e metafore:

1. Il Problema: L'AI che non sa quando fermarsi

Oggi, le AI sono bravissime a riconoscere gatti, cani o a rispondere a domande. Ma sono anche un po' "presuntuose": se gli mostri un'immagine di un gatto disegnato come un'opera d'arte astratta (invece che una foto reale), l'AI potrebbe comunque dire: "È un gatto!" con il 99% di sicurezza, anche se sta mentendo.
Nella vita reale, questo è pericoloso. Se un'auto a guida autonoma non sa quando fermarsi davanti a una nebbia strana, o se un medico AI diagnostica una malattia su una radiografia sfocata, gli errori costano cari.

2. La Soluzione: Il "Filtro Neyman-Pearson"

Gli autori usano un vecchio trucco della statistica (chiamato Lemma di Neyman-Pearson) per creare un filtro intelligente.
Immagina che l'AI abbia due "menti":

  • La mente della Correttezza: Ricorda tutti i casi in cui ha avuto ragione in passato.
  • La mente dell'Errore: Ricorda tutti i casi in cui ha sbagliato in passato.

Il nuovo sistema chiede all'AI: "Questa nuova situazione assomiglia di più a quando ho avuto ragione, o a quando ho sbagliato?"

  • Se assomiglia alla mente della Correttezza: "Ok, procedi, fai la previsione!"
  • Se assomiglia alla mente dell'Errore (o è un mix confuso): "Stop! Non lo so. Lascia che intervenga un umano."

3. Le Nuove Strumenti: "Il Righello" e "Il Vicinato"

Per capire se un input è "sicuro" o "pericoloso", gli autori hanno creato due nuovi strumenti di misurazione:

  • ∆-MDS (Il Righello Statistico): Immagina di avere due gruppi di amici: quelli che ti hanno sempre dato ragione e quelli che si sono sempre sbagliati. Questo strumento misura quanto il nuovo cliente è "vicino" al gruppo dei "sempre corretti" e quanto è "lontano" dal gruppo dei "sempre sbagliati". Se è molto vicino ai corretti, l'AI lavora. Se è nel mezzo o vicino agli sbagliati, l'AI si ferma.
  • ∆-KNN (Il Vicinato): Questo è come chiedere ai tuoi 5 migliori amici (i vicini più prossimi) cosa ne pensano. Se i tuoi amici "corretti" sono tutti vicini a te e gli amici "sbagliati" sono lontani, allora sei al sicuro. Se i due gruppi sono mescolati, è meglio non dire nulla.

4. Il Trucco Magico: La Combinazione

Gli autori hanno scoperto che usare solo il "Righello" o solo il "Vicinato" va bene, ma usarli insieme è ancora meglio. È come avere sia una bussola che una mappa: se una ti dice che sei sulla strada giusta e l'altra conferma, puoi procedere con sicurezza.
Hanno combinato questi nuovi strumenti con metodi vecchi (basati sui "logit", che sono come i voti interni dell'AI) per creare un sistema ibrido super potente.

5. Perché è importante? (Il contesto reale)

Fino a poco tempo fa, si pensava che le AI funzionassero bene solo se il mondo rimaneva uguale (es. foto di gatti sempre uguali). Ma la realtà è diversa: le immagini possono essere disegnate, sfocate, o di notte (cambiamento di covariate).
Questo nuovo metodo è speciale perché funziona benissimo anche quando il mondo cambia. È come se il barista imparasse a riconoscere che un cliente con l'ombrello (pioggia) è diverso da uno con gli occhiali da sole (sole), ma sa comunque quando è troppo confuso per ordinare il caffè.

In sintesi

Questo paper insegna alle macchine a essere umane nel loro limite: a riconoscere quando non sono sicure.

  • Prima: L'AI indovinava sempre, anche quando sbagliava.
  • Ora: L'AI usa un "faro" statistico per vedere se è nella nebbia. Se c'è nebbia, dice: "Non lo so, chiedi a un umano".

Il risultato? Meno errori, più fiducia e sistemi più sicuri, specialmente quando le cose cambiano e diventano imprevedibili. È un passo avanti verso un'intelligenza artificiale che non è solo intelligente, ma anche saggia.

Ricevi articoli come questo nella tua casella di posta

Digest giornalieri o settimanali personalizzati in base ai tuoi interessi. Riassunti Gist o tecnici, nella tua lingua.

Prova Digest →