(Un)fair devices: Moving beyond AI accuracy in personal sensing

Questa revisione della letteratura evidenzia i rischi di bias nascosti nei modelli di apprendimento automatico dei dispositivi personali e promuove un approccio centrato sull'uomo, con linee guida specifiche per garantire equità e affidabilità nelle applicazioni di salute e benessere.

Sofia Yfantidou, Marios Constantinides, Dimitris Spathis, Athena Vakali, Daniele Quercia, Fahim Kawsar

Pubblicato 2026-03-04
📖 5 min di lettura🧠 Approfondimento

Each language version is independently generated for its own context, not a direct translation.

Immagina di avere un assistente personale digitale, un piccolo "guardiano" che ti segue ovunque: sul polso, nel taschino o persino sotto la pelle. Questo assistente è il tuo dispositivo intelligente (smartwatch, anello, cerotto) che ti dice quanto hai dormito, se il tuo cuore sta battendo bene o se hai fatto abbastanza passi. Sembra magico, vero?

Ma questo articolo, scritto da un gruppo di ricercatori, ci racconta una storia diversa, un po' come se scoprissero che il nostro assistente magico ha degli "occhiali colorati" che gli impediscono di vedere la realtà in modo giusto per tutti.

Ecco la spiegazione semplice, con qualche metafora per chiarire le idee.

1. Il Problema: L'Assistente che "vede" solo alcuni colori

Immagina che questi dispositivi siano come fotografi. Il loro lavoro è scattare foto alla tua salute e usare l'Intelligenza Artificiale (AI) per interpretarle.
Il problema è che questi fotografi hanno fatto pratica quasi esclusivamente su un gruppo di persone molto specifico: giovani, bianchi, occidentali, ricchi e istruiti (i ricercatori usano l'acronimo inglese "WEIRD").

  • L'analogia del sarto: Pensa a un sarto che taglia abiti su misura. Se ha fatto tutti i suoi provini solo su persone alte e magre, quando proverà a vestire una persona più alta o più robusta, l'abito non starà bene. Potrebbe stringere troppo o cadere.
  • La realtà: È successo esattamente questo con i dispositivi medici.
    • Gli ossimetri (quelli che misurano l'ossigeno nel sangue) funzionano benissimo sulla pelle chiara, ma su pelli più scure spesso sbagliano, dicendo che una persona sta bene quando invece sta male.
    • I sensori di battito cardiaco ottici faticano a leggere il cuore di persone con un peso maggiore o di certe etnie.
    • I sistemi che ascoltano la voce o il respiro fanno più fatica a capire le donne o i bambini, perché le loro voci o i loro corpi sono diversi da quelli su cui il computer è stato "addestrato".

2. Perché succede? (Il "Bias" nascosto)

Il termine tecnico è "bias" (pregiudizio), ma pensiamoci come a un filtro invisibile.
Quando i ricercatori costruiscono questi dispositivi, usano dati raccolti in laboratorio. Spesso, i partecipanti sono studenti universitari o volontari facili da trovare.

  • Il problema dei dati: È come se volessi insegnare a un cane a riconoscere tutti i cani del mondo, ma gli mostrassi solo foto di Golden Retriever. Quando vedrà un Bulldog, non lo riconoscerà.
  • Il risultato: Se un dispositivo non è stato testato su persone diverse (per età, peso, etnia, genere), le sue previsioni saranno ingiuste. Potrebbe non rilevare un infarto in una persona anziana o non capire che una donna è incinta basandosi sui suoi dati di movimento.

3. Cosa hanno scoperto gli autori?

Gli autori hanno letto centinaia di articoli scientifici su questi dispositivi e hanno trovato una cosa preoccupante: quasi nessuno controlla se il dispositivo è "giusto" per tutti.
La maggior parte dei ricercatori si concentra solo sulla domanda: "Funziona?" (È preciso?).
Pochissimi chiedono: "Funziona per tutti allo stesso modo?".
È come se un'azienda di automobili vendesse un'auto che va velocissima, ma non controllasse mai se i freni funzionano bene anche quando piove o su strade sconnesse.

4. La Soluzione: "Fairness by Design" (Giustizia fin dal disegno)

Gli autori non vogliono solo lamentarsi, vogliono cambiare le regole del gioco. Propongono un nuovo approccio chiamato "Fairness by Design" (Giustizia fin dalla progettazione).

Immagina di costruire una casa.

  • Il vecchio modo: Costruisci la casa, poi, quando è finita, guardi se le scale sono comode per chi usa la sedia a rotelle. Se non lo sono, provi a mettere una rampa (spesso è troppo tardi o costoso).
  • Il nuovo modo ("Fairness by Design"): Prima di posare il primo mattone, chiedi: "Come useranno questa casa persone di tutte le età, altezze e abilità?". Progetti le porte larghe e le scale accessibili fin dall'inizio.

5. Le Regole d'Oro per il Futuro

Per rendere questi dispositivi equi, gli autori danno 14 consigli pratici, che possiamo riassumere in tre grandi idee:

  1. Raccogli dati veri e vari: Non usare solo studenti universitari. Coinvolgi persone di tutte le età, pesi, etnie e condizioni di salute. È come fare una torta: se metti solo zucchero, non è buona per chi non lo ama. Devi avere tutti gli ingredienti.
  2. Controlla costantemente: Non basta testare il dispositivo una volta. I corpi cambiano, i sensori invecchiano e il mondo cambia. Bisogna controllare continuamente se il dispositivo continua a funzionare bene per tutti, anche dopo anni di utilizzo.
  3. Sii trasparente: Se un dispositivo sbaglia con un certo gruppo di persone, bisogna dirlo chiaramente. Non nascondere i difetti.

In sintesi

Questo articolo ci dice che la tecnologia è potente, ma non è neutrale. Se costruiamo i nostri "guardiani digitali" basandoci solo su una piccola parte della popolazione, stiamo creando strumenti che potrebbero danneggiare le persone più vulnerabili.

L'obiettivo è passare da una tecnologia che dice "Sono preciso" a una che dice "Sono preciso e giusto per te, chiunque tu sia". È un passo necessario per garantire che il futuro della salute digitale non lasci indietro nessuno.

Ricevi articoli come questo nella tua casella di posta

Digest giornalieri o settimanali personalizzati in base ai tuoi interessi. Riassunti Gist o tecnici, nella tua lingua.

Prova Digest →