Finite-Sample Decision Instability in Threshold-Based Process Capability Approval

Questo studio dimostra che le decisioni di approvazione basate su indici di capacità del processo (come CpkC_{pk}) vicino a soglie fisse sono intrinsecamente instabili in campioni finiti, rivelando un rischio decisionale significativo e non trascurabile anche in condizioni ideali.

Fei Jiang, Lei Yang

Pubblicato Fri, 13 Ma
📖 4 min di lettura☕ Lettura da pausa caffè

Each language version is independently generated for its own context, not a direct translation.

Immagina di essere un ispettore di qualità in una grande fabbrica di automobili. Il tuo lavoro è decidere se un nuovo fornitore di pezzi è "approvato" per iniziare a lavorare con voi. Per farlo, usi un metro magico chiamato Cpk (un indice di capacità del processo).

C'è una regola ferrea, scritta nel contratto: se il tuo metro segna 1.33 o più, il fornitore è approvato. Se segna meno, viene bocciato. Sembra semplice, vero? È come dire: "Se pesi più di 70 kg, puoi salire su questo ascensore".

Tuttavia, questo articolo scientifico rivela un problema nascosto e molto curioso: il metro non è mai perfettamente preciso quando lo usi su un piccolo campione di pezzi.

Ecco la spiegazione semplice di cosa scoprono gli autori, Fei Jiang e Lei Yang, usando delle metafore quotidiane.

1. Il problema del "Metro Oscillante"

Immagina di dover pesare un amico per vedere se supera i 70 kg. Ma non hai una bilancia digitale precisa, hai solo una bilancia a molla un po' vecchia e devi pesarlo solo 30 volte (un campione tipico nelle fabbriche) e fare la media.

Anche se il tuo amico pesa esattamente 70 kg (il limite esatto), la bilancia oscillerà un po' a causa di piccoli errori:

  • A volte segnerà 70.2 (approvato!).
  • A volte segnerà 69.8 (bocciato!).

Se pesi il tuo amico all'infinito, la media sarà 70. Ma se lo pesi solo 30 volte, c'è una probabilità del 50% che tu lo boccia e del 50% che lo approvi, anche se lui è esattamente al limite.

La scoperta: Gli autori dicono che quando un processo è esattamente al limite di approvazione (1.33), la decisione è un lancio della moneta. Non importa quanto sia bravo il fornitore, se è "sul filo del rasoio", la statistica lo farà passare o fallire a caso a causa della variabilità del campione.

2. La "Zona di Confusione" (La nebbia)

Immagina che la regola dei 1.33 non sia una linea netta sul pavimento, ma una zona di nebbia.

  • Se il vero processo del fornitore è molto lontano dalla nebbia (es. Cpk = 2.0), la nebbia non ti inganna: lo approvi sempre.
  • Se è molto basso (es. Cpk = 0.8), lo bocci sempre.
  • Ma se il processo è dentro la nebbia (vicino a 1.33), la tua decisione diventa instabile.

Gli autori hanno calcolato quanto è larga questa nebbia. Con i campioni tipici delle fabbriche (circa 30-50 pezzi misurati), la nebbia è abbastanza larga da includere molti fornitori che pensiamo essere "abbastanza buoni".

3. L'esperimento reale: 880 pezzi di prova

Per dimostrare che non è solo teoria, gli autori hanno guardato i dati reali di 880 dimensioni di pezzi meccanici prodotti in una fabbrica.
Hanno scoperto che:

  • Circa l'11% di questi pezzi si trova proprio dentro quella "nebbia" vicino al limite di 1.33.
  • Per questi pezzi, se ripeti la misurazione (come se facessi un nuovo controllo a caso), c'è una probabilità significativa che la decisione cambi: un giorno l'approvi, il giorno dopo lo bocci, anche se il pezzo è lo stesso e il processo non è cambiato.

È come se un arbitro di calcio decidesse se un rigore è valido o no basandosi su un'immagine sfocata: a volte dice "gol", a volte "fuori", anche se la palla era esattamente sulla linea.

4. Perché è pericoloso?

Nella vita reale, questo significa che potresti:

  1. Assumere un fornitore mediocre (falso positivo) perché il tuo campione casuale ha dato un numero fortunato.
  2. Licenziare un fornitore bravo (falso negativo) perché il tuo campione casuale ha dato un numero sfortunato.

Entrambe le cose costano soldi e creano problemi.

5. La soluzione: Mettere un "cuscinetto di sicurezza"

Gli autori suggeriscono che non dovremmo usare la regola rigida "Se Cpk ≥ 1.33, allora OK".
Dovremmo invece usare una regola più intelligente, come dire:

"Se Cpk ≥ 1.62, allora sono sicuro al 95% che il fornitore è bravo."

In pratica, invece di accettare chi è esattamente al limite, alziamo la barra di sicurezza per compensare l'errore del metro. È come se, per salire su un aereo, non chiedessimo solo "pesi meno di 100kg?", ma "pesi meno di 90kg?" per essere sicuri che, anche se la bilancia sbaglia di un po', tu sia comunque sotto il limite reale.

In sintesi

Questo articolo ci insegna che le regole fisse basate su numeri non sono mai "assolute" quando si usano pochi dati.
Quando un processo è vicino al limite di approvazione, la decisione non è una certezza matematica, ma una scommessa statistica. Per prendere decisioni migliori, le aziende dovrebbero essere consapevoli di questa "instabilità" e magari aggiungere un margine di sicurezza, invece di fidarsi ciecamente del numero che esce dal computer.