Either a Confidence Interval Covers, or It Doesn't (Or Does It?): A Model-Based View of Ex-Post Coverage Probability

Il paper sfida l'interpretazione tradizionale "o copre o non copre" degli intervalli di confidenza di Neyman, dimostrando attraverso argomenti informali e formali che le probabilità post-data per singoli eventi di copertura sono concettualmente legittime e coerenti con la stessa matematica che definisce i tassi di errore a lungo termine, proponendo invece una visione della confidenza come probabilità predittiva.

Scott Lee

Pubblicato 2026-03-06
📖 7 min di lettura🧠 Approfondimento

Each language version is independently generated for its own context, not a direct translation.

Il Paradosso del "Sì o No": Quando un Intervallo di Confidenza è "Vivo" o "Morto"

Immagina di essere un detective che deve risolvere un caso. Hai un metodo infallibile per trovare il colpevole: se lo usi 100 volte, troverai il vero colpevole 95 volte su 100. Questo è il 95% di "copertura".

Ora, immagina di aver appena usato questo metodo una sola volta. Hai ottenuto un risultato: "Il colpevole è tra le 14:00 e le 16:00".
La domanda che tutti si fanno è: Quanto è probabile che il colpevole sia davvero in quel lasso di tempo?

Secondo la vecchia scuola di pensiero (quella di Neyman, il "padre" degli intervalli di confidenza), la risposta è secca e un po' frustrante: "O c'è, o non c'è. Punto."
Secondo questa visione, una volta che hai raccolto i dati, il mistero è risolto per l'universo, anche se tu non lo sai. Il colpevole è in quel orario o non lo è. Non c'è più spazio per la probabilità, perché il "caso" è finito. È come guardare una moneta che è già atterrata: è testa o croce. Non puoi dire "c'è il 50% di probabilità che sia testa", perché è già successo.

Scott Lee, l'autore di questo paper, dice: "Aspetta un attimo. Questo ragionamento ci sta portando in un vicolo cieco."

Ecco la sua tesi, spiegata con tre storie semplici.


1. La Storia del Gatto e dei Biscotti (Il Paradosso del Gusto)

Immagina di avere una scatola piena di biscotti. Il 75% sono di pesce, il 25% di pollo.
Il tuo gatto, Sophie, mangia un biscotto. Non sai quale sia il gusto, ma sai che:

  • Se è di pesce, lei fa le fusa e poi si addormenta.
  • Se è di pollo, fa le fusa meno spesso e poi vaga per la casa.

Domanda: Sophie si addormenterà?
Se usi la logica "vecchia scuola" (quella che dice "o c'è o non c'è"), potresti dire: "Beh, il biscotto è già stato scelto. O è di pesce o è di pollo. Quindi la probabilità che si addormenti è o 100% o 0%. Non ha senso calcolare nulla."

Ma questo è assurdo! Se non sai quale biscotto ha mangiato, la cosa più sensata da fare è usare la statistica: "Il 75% dei biscotti sono di pesce, e i gatti che mangiano pesce dormono il 90% delle volte... quindi c'è un'alta probabilità che Sophie dorma."

Lee dice: Perché dovremmo smettere di usare la probabilità appena il biscotto è stato mangiato? Se il modello ci permette di prevedere il futuro (prima che Sophie dorma), perché non dovrebbe permetterci di fare un ragionamento sul passato (sapendo che Sophie dorme, quanto è probabile che il biscotto fosse di pesce)?

2. La Fabbrica di Cioccolatini (Il Problema della Macchina)

Immagina una fabbrica di cioccolatini. Una macchina li riempie, un'altra li pesa per vedere se sono pieni o vuoti.
La macchina di pesatura a volte sbaglia.
Ora, c'è un cioccolatino sul nastro trasportatore. La macchina di pesatura non l'ha ancora controllato.
Domanda: Qual è la probabilità che il prossimo cioccolatino prodotto sia pieno?

Se segui la logica "o c'è o non c'è" sul cioccolatino attuale (che è già stato prodotto ma non pesato), dici: "Quel cioccolatino è già pieno o vuoto. Quindi la probabilità è 0 o 1."
Se la probabilità è 0 o 1, come fai a calcolare la probabilità per il prossimo cioccolatino? Il tuo modello si rompe! Non puoi più fare previsioni perché hai "ucciso" l'incertezza su un evento che non hai ancora osservato.

Lee sostiene che per fare previsioni utili (come dire al manager della fabbrica quanto sarà efficiente la produzione), dobbiamo mantenere una "probabilità intermedia" finché non guardiamo davvero il risultato. Dobbiamo trattare il cioccolatino come se fosse ancora in una "zona grigia" di possibilità, non come un fatto consumato.

3. La Moneta che è già Atterrata (La Metafora della Copertura)

Torniamo agli intervalli di confidenza.
Immagina di lanciare una moneta 1 milione di volte. La tua "regola" è: "Se esce testa, scrivo un numero; se esce croce, ne scrivo un altro".
La statistica dice: "Il 95% delle volte, il numero che scrivo coprirà il vero valore nascosto".

Ora, hai lanciato la moneta una volta sola. Hai scritto il numero.

  • Visione Vecchia: "Il numero copre o non copre. È un fatto. Non posso dire 'ho il 95% di fiducia'."
  • Visione di Lee: "Aspetta. Il mio metodo è stato progettato per funzionare il 95% delle volte. Anche se questa volta specifica è un fatto, io non so quale fatto sia. Quindi, per me, che sono l'osservatore, c'è ancora una 'fiducia' del 95% che il mio metodo abbia funzionato."

Lee usa un'analogia potente: pensare a una sequenza infinita di mondi paralleli.
In un mondo, il tuo intervallo ha coperto il valore. In un altro, no. Tu vivi in uno di questi mondi, ma non sai quale.
Dire "O copre o non copre" è come dire "Nel mondo in cui vivo, la moneta è già testa o croce". È vero, ma inutile per te che devi prendere una decisione ora.
Dire "Ho il 95% di fiducia" significa dire: "Se guardassi tutti i mondi possibili in cui ho usato questo metodo, nel 95% di essi avrei avuto successo".

La Conclusione Semplice: Cosa significa "Fiducia"?

Scott Lee ci dice che non dobbiamo essere così rigidi.
La vecchia regola ci dice: "Non puoi parlare di probabilità dopo aver visto i dati".
La nuova visione dice: "Puoi parlare di probabilità, ma devi specificare quale probabilità stai usando".

  1. La Probabilità di Progetto (Design): "Il mio metodo funziona il 95% delle volte nel lungo periodo." (Questa è la statistica classica).
  2. La Probabilità Degenerata (Il fatto): "In questo mondo specifico, il valore è dentro o fuori." (Questa è la verità matematica, ma non ci aiuta a decidere).
  3. La Probabilità Predittiva (La Fiducia): "Basandomi su quello che so ora, quanto è probabile che il mio metodo abbia funzionato?"

L'idea chiave:
La "Fiducia" (Confidence) non è una proprietà magica del numero che hai scritto. È una previsione. È come dire a un amico: "Ho usato un metodo che di solito funziona bene, quindi scommetto che questo intervallo è corretto".

Non è un errore dire "Ho il 95% di fiducia che il valore sia qui". È solo un modo per dire: "Il mio metodo è affidabile, e non ho motivo di pensare che questa volta sia l'eccezione".

In sintesi

Il paper ci invita a smettere di avere paura della parola "probabilità" dopo aver raccolto i dati.
Immagina di essere un meteorologo.

  • Prima della pioggia: "C'è il 90% di probabilità che piova."
  • Dopo la pioggia (ma senza guardare fuori): "Ora che la pioggia è caduta, è un fatto. Ma se non ho guardato fuori, posso ancora dire 'C'è il 90% di probabilità che stia piovendo' basandomi sul modello."

Scott Lee ci dice che gli statistici dovrebbero essere più come meteorologi e meno come giudici che emettono sentenze definitive. Possiamo mantenere la nostra "fiducia" nel metodo, anche dopo aver visto i dati, perché quella fiducia è ciò che ci permette di prendere decisioni intelligenti nel mondo reale, dove non abbiamo accesso alla "verità assoluta" immediata.

Il messaggio finale: Non limitarti a dire "O c'è o non c'è". Dì invece: "Il mio metodo è affidabile, e quindi ho buone ragioni per credere che questo risultato sia corretto". È una distinzione sottile, ma cambia tutto su come usiamo la statistica per capire il mondo.