Upholding Epistemic Agency: A Brouwerian Assertibility Constraint for Responsible AI

Il paper propone un vincolo di assertibilità ispirato a Brouwer per l'IA responsabile, che in contesti ad alto rischio obbliga i sistemi a restituire "Indeterminato" se non possono fornire un certificato pubblico e contestabile di legittimità, preservando così l'agenzia epistemica umana attraverso un'interfaccia a tre stati che separa l'entitlement interno dalla posizione pubblica.

Michael Jülich

Pubblicato 2026-03-05
📖 5 min di lettura🧠 Approfondimento

Each language version is independently generated for its own context, not a direct translation.

Ecco una spiegazione semplice e creativa di questo articolo, pensata per chiunque, senza bisogno di essere esperti di informatica o filosofia.

Il Titolo: "Non dire 'Sì' o 'No' se non hai la prova in tasca"

Immagina che l'Intelligenza Artificiale (IA) sia come un giornalista molto veloce e molto sicuro di sé, che scrive articoli su qualsiasi cosa. Il problema è che questo giornalista, per quanto veloce, a volte inventa dettagli o si basa su voci di corridoio, ma parla con un tono così convincente che tutti lo credono.

In un mondo democratico, se questo giornalista dice "Il Ministro è corrotto" o "Questa medicina è sicura", sta prendendo una decisione che cambia la vita delle persone. Se sbaglia, fa danni enormi.

L'autore di questo articolo, Michael Jülich, dice: "Basta con le risposte sicure basate solo su un 'sento che è vero'".

Ecco la sua soluzione, spiegata con tre metafore semplici:

1. Il "Biglietto d'Imbarco" (La Certificazione)

Immagina che per dire una cosa importante, l'IA non possa semplicemente aprire la bocca. Deve prima mostrare un biglietto d'imbarco (una "certificazione").

  • Senza biglietto: Se l'IA non ha un documento verificabile che provi la sua affermazione (come un contratto firmato, una perizia ufficiale, o un calcolo matematico che non lascia dubbi), non può parlare.
  • Con biglietto: Se ha il documento, può dire "Sì" o "No".

Questo biglietto non è una semplice "percentuale di sicurezza" (come dire "sono al 90% sicuro"). È una prova concreta che chiunque può controllare. Se non c'è la prova, l'IA deve tacere.

2. I Tre Volti dell'IA: Sì, No, e "Non lo so ancora"

Attualmente, le IA sono addestrate per dare sempre una risposta: o "Sì" o "No". È come un semaforo che ha solo verde e rosso, mai giallo.

L'autore propone di aggiungere il Giallo (o "Indeterminato").
L'IA avrà tre stati possibili:

  1. Sì (Asserto): "Ho la prova. Posso dirlo."
  2. No (Negato): "Ho la prova che è falso. Posso dirlo."
  3. Non lo so ancora (Indeterminato): "Non ho ancora la prova sufficiente. Non posso decidere."

Perché il "Non lo so" è importante?
Perché è meglio dire "Non lo so ancora" e aspettare che arrivino nuove prove, piuttosto che inventare una risposta falsa per non sembrare indecisi. È come un giudice che dice: "Non ho abbastanza prove per condannare, quindi il caso rimane aperto" invece di condannare un innocente solo per chiudere il processo velocemente.

3. L'Analogia del "Costruttore di Case"

L'autore si ispira a un matematico di nome L.E.J. Brouwer. La sua idea è che la verità non è qualcosa che "esiste già là fuori" pronta per essere trovata, ma qualcosa che dobbiamo costruire.

  • L'IA classica: È come un architetto che guarda una casa e dice: "Sembra solida, quindi è solida!" (anche se non ha controllato le fondamenta).
  • L'IA secondo questo articolo: È come un architetto che dice: "Posso dire che la casa è solida solo se posso mostrarti i calcoli ingegneristici che provano che le fondamenta reggono. Se non riesco a mostrarti i calcoli, devo dire: 'Non posso garantire che sia solida'".

Perché tutto questo ci riguarda? (La parte umana)

Il punto più profondo dell'articolo è che l'IA non deve toglierci il pensiero critico.

Se un'IA ci dà sempre risposte definitive e sicure, noi umani smettiamo di chiederci: "È vero? Come lo sa?". Diventiamo passivi, come bambini che credono a tutto ciò che dice un adulto.

L'autore vuole che l'IA ci costringa a rimanere adulti.

  • Quando l'IA dice "Non lo so ancora" e mostra il motivo (es. "Mancano documenti ufficiali"), ci sta dicendo: "Ehi, non è ancora il momento di decidere. Andate a cercare altre prove, fate un'inchiesta, discutete tra voi."

In questo modo, l'IA non sostituisce il nostro giudizio, ma ci aiuta a fare le domande giuste.

In sintesi: Cosa cambia nella vita reale?

Immagina un futuro in cui chiedi a un'assistente virtuale: "Il mio candidato politico ha rubato dei soldi?"

  • Oggi (IA classica): "Probabilmente sì, basandomi su quello che ho letto online." (Risposta fluida, ma potenzialmente falsa).
  • Domani (IA con "Vincolo Brouweriano"): "Non posso dirlo. Attualmente non ci sono prove ufficiali verificabili che formino un 'certificato' di colpevolezza. Ci sono solo voci. Quindi la mia risposta è: Indeterminato. Ecco i documenti che mancano per poterlo affermare con certezza."

La Conclusione Creativa

L'articolo ci invita a vedere l'IA non come un oracolo che sa tutto, ma come un assistente responsabile.
Come dice l'autore citando un filosofo: l'educazione serve a imparare a riconoscere quando qualcuno (o qualcosa) sta "dicendo sciocchezze".

Questa nuova regola per l'IA ci dice: "Nessuna prova, nessuna sentenza."
È un modo per proteggere la nostra democrazia, assicurandoci che le macchine non ci diano risposte definitive su cose che la società deve ancora discutere e verificare insieme. L'IA diventa così uno strumento per costruire la verità insieme, passo dopo passo, invece di imporci una verità finta e veloce.