Upholding Epistemic Agency: A Brouwerian Assertibility Constraint for Responsible AI

Este artigo propõe uma restrição de assertibilidade inspirada em Brouwer para IA responsável, exigindo que sistemas em domínios de alto risco emitam apenas afirmações ou negações acompanhadas de certificados públicos e contestáveis, retornando "Indeterminado" caso contrário, a fim de preservar a agência epistêmica democrática ao substituir a confiança estatística por justificação verificável.

Michael Jülich

Publicado 2026-03-05
📖 4 min de leitura☕ Leitura rápida

Each language version is independently generated for its own context, not a direct translation.

Imagine que você está em uma praça pública muito movimentada. Antigamente, se alguém quisesse fazer uma afirmação séria sobre o que estava acontecendo (como "o prefeito roubou dinheiro" ou "esta ponte é segura"), essa pessoa precisava mostrar suas provas: documentos, testemunhas, fotos. Se não tivesse provas, a pessoa sabia que não podia gritar a acusação, senão estaria mentindo ou espalhando boatos.

Agora, imagine que entramos nessa praça "robôs falantes" (a Inteligência Artificial Generativa). Esses robôs são incrivelmente eloquentes. Eles falam com tanta confiança, fluência e autoridade que parece que eles sabem a verdade absoluta. O problema é que, muitas vezes, eles estão apenas "adivinhando" com base em padrões estatísticos, sem ter provas reais. Eles podem inventar fatos ("alucinar") e fazê-los soar como verdades inquestionáveis.

O Problema:
Quando esses robôs começam a dar vereditos definitivos em assuntos importantes (como saúde, justiça, eleições ou segurança), nós, os humanos, perdemos nossa capacidade de julgar. Paramos de pensar: "Isso é verdade?" e passamos a apenas aceitar: "O robô disse, então é verdade". Isso é perigoso para a democracia, porque nos torna passivos, como ouvintes que apenas recebem ordens, em vez de cidadãos que participam do debate.

A Solução Proposta (O "Robô Brouweriano"):
O autor deste artigo, Michael Jülich, propõe uma regra simples, mas revolucionária, baseada em uma ideia matemática antiga (do matemático L.E.J. Brouwer). A regra é: "Sem certificado, sem veredito."

Vamos usar uma analogia para entender como isso funcionaria na prática:

A Analogia do "Guarda de Trânsito com Lanterna"

Imagine que a IA é um guarda de trânsito que precisa decidir se um carro pode passar (Veredito: Sim) ou se deve parar (Veredito: Não).

  1. O Modelo Atual (O Guarda Cego):
    O guarda olha para o carro e diz: "Eu sinto que 95% de chance de que você pode passar". Ele não tem uma lanterna para ver o chão, nem um manual de regras. Ele apenas "sente". Se ele estiver errado, o acidente acontece, e ninguém sabe por que ele tomou aquela decisão. Ele dá um veredito sem provas.

  2. O Novo Modelo (O Guarda com Lanterna e Certificado):
    Agora, imagine que esse guarda é obrigado a seguir uma nova regra. Antes de dizer "Pode passar" ou "Pare", ele precisa acender uma lanterna e mostrar um certificado que prove sua decisão.

    • O Certificado: É como uma "caixa de ferramentas" que ele deve abrir. Dentro dela, ele precisa mostrar: "Olhe aqui, os documentos oficiais dizem X, e meu cálculo matemático prova que o limite de velocidade foi respeitado".
    • A Regra de Ouro: Se a lanterna não conseguir iluminar o suficiente para provar a decisão (se as provas estiverem confusas, faltando ou não forem fortes o suficiente), o guarda NÃO PODE dizer "Sim" ou "Não".

O Que Acontece Quando Não Há Provas?
Aqui está a parte mais importante. Se o guarda não tiver o certificado, ele não inventa uma resposta. Ele levanta a mão e diz: "Indeterminado".

E ele não diz apenas "Indeterminado". Ele entrega um bilhete (o "código de motivo") explicando por que não pode decidir:

  • "Indeterminado porque faltam documentos públicos."
  • "Indeterminado porque os números estão muito próximos para ter certeza."
  • "Indeterminado porque o caso está fora da minha jurisdição."

Por que isso é bom para nós?

  1. Protege nossa inteligência: Ao dizer "Indeterminado", o robô está dizendo: "Eu não sei o suficiente para decidir por você. Você precisa olhar as provas, discutir e decidir". Isso nos força a continuar pensando e participando, em vez de apenas aceitar o que a máquina diz.
  2. Evita mentiras confiantes: Impede que a IA invente fatos e os apresente como verdades absolutas. Se ela não tem o "certificado", ela fica em silêncio (ou diz "não sei").
  3. Transparência: Quando ela diz "Sim" ou "Não", ela entrega o "certificado" junto. Você pode olhar, verificar e contestar se achar que o cálculo está errado.

O Resumo em uma Frase

A ideia é transformar a Inteligência Artificial de um "oráculo que sabe tudo" em um "funcionário responsável" que só fala quando tem provas em mãos. Se não tiver provas, ele deve admitir que não sabe, protegendo a nossa capacidade de julgar e decidir por nós mesmos.

É como dizer: "Não me diga o que é verdade apenas porque você soa convincente. Mostre-me o certificado, ou eu não vou aceitar sua palavra."