Upholding Epistemic Agency: A Brouwerian Assertibility Constraint for Responsible AI

Este artículo propone una restricción de asertibilidad inspirada en Brouwer para la IA responsable en dominios de alto riesgo, que exige certificados de entitlement públicamente inspectables y contestables para emitir afirmaciones o negaciones, reservando el estado "Indeterminado" cuando no existen testigos de forzamiento, con el fin de preservar la agencia epistémica democrática frente a la autoridad automatizada.

Michael Jülich

Publicado 2026-03-05
📖 5 min de lectura🧠 Análisis profundo

Each language version is independently generated for its own context, not a direct translation.

Imagina que la Inteligencia Artificial (IA) generativa es como un orador muy elocuente en una plaza pública. Este orador habla con una fluidez increíble, con una voz segura y convincente. Sin embargo, hay un problema: a veces, este orador inventa cosas que suenan muy reales pero que no tienen base alguna. En el mundo actual, donde la desinformación se propaga rápido, confiar ciegamente en este orador puede ser peligroso, especialmente cuando se trata de decisiones importantes como la salud, la justicia o las elecciones.

Este artículo propone una nueva regla para este orador artificial, inspirada en las ideas de un matemático llamado L.E.J. Brouwer. La idea central es sencilla pero revolucionaria: la IA no debe dar respuestas definitivas ("Sí" o "No") a menos que pueda mostrar su "trabajo de casa".

Aquí te explico los puntos clave con analogías cotidianas:

1. El Problema: El Orador que "Adivina" con Seguridad

Actualmente, las IAs funcionan como un adivino con mucha confianza. Si les preguntas algo, te dan una respuesta basada en patrones estadísticos (como si adivinaran la palabra siguiente en una frase). A veces aciertan, a veces inventan (alucinaciones). El problema es que su "confianza" no es lo mismo que tener evidencia. Es como si un juez dictara una sentencia basándose solo en su "sensación" de que el acusado es culpable, sin presentar pruebas.

2. La Solución: La Regla del "Certificado de Trabajo"

El autor propone que, en temas importantes (llamados "de alto riesgo"), la IA debe cambiar su comportamiento. En lugar de decir simplemente "Sí" o "No", debe seguir una regla estricta:

  • Si tiene pruebas sólidas y verificables: Puede decir "Sí" o "No".
  • Si no tiene pruebas sólidas: Debe decir "Indeterminado" (o "No lo sé todavía").

La analogía del Inspector de Obras:
Imagina que la IA es un arquitecto que construye un puente.

  • El modelo actual: El arquitecto dice: "El puente aguantará el tráfico, créeme, me siento muy seguro".
  • El nuevo modelo (Brouweriano): El arquitecto debe decir: "El puente aguantará el tráfico, y aquí tienes los cálculos, los planos firmados y el certificado del ingeniero que lo demuestran".
  • Si el arquitecto no puede sacar esos planos y certificados, no puede decir que el puente es seguro. Debe decir: "Indeterminado: necesito más datos antes de prometer nada".

3. Los Tres Estados de la IA

Bajo esta nueva regla, la IA solo puede tener tres estados al responder, en lugar de dos:

  1. Afirmado (Sí): "Tengo un certificado que demuestra que esto es verdad".
  2. Negado (No): "Tengo un certificado que demuestra que esto es falso".
  3. Indeterminado (No sé / Pendiente): "No tengo un certificado que demuestre nada. Por favor, no tomes una decisión basada en mi silencio".

¿Por qué "Indeterminado" es bueno?
Mucha gente piensa que decir "no sé" es una falla. Pero en este sistema, es un acto de responsabilidad. Es como un semáforo que se pone en amarillo parpadeante en lugar de forzarte a cruzar en rojo o verde. Protege a los ciudadanos de tomar decisiones basadas en "adivinanzas" disfrazadas de hechos.

4. El "Certificado" es la Clave

¿Qué es ese certificado? No es un número mágico de "confianza del 90%". Es un paquete de evidencia verificable.

  • Analogía: Es como cuando vas a un banco a pedir un préstamo. No basta con que el cajero diga "te creo". Necesitas presentar tu nómina, tus impuestos y un historial crediticio. Si no tienes esos papeles, el banco no te da el dinero, aunque el cajero tenga "buena intuición".
  • En la IA, ese "paquete de papeles" es un cálculo matemático que cualquiera (o un auditor) puede revisar para ver si la respuesta es correcta. Si la IA no puede generar ese paquete, tiene la obligación moral de callarse.

5. ¿Por qué esto ayuda a la democracia?

El autor argumenta que la democracia depende de que los ciudadanos puedan pensar, debatir y juzgar por sí mismos.

  • Si la IA nos da respuestas definitivas sin pruebas, nos convierte en pasivos. Dejamos de pensar porque "la máquina lo dijo".
  • Si la IA nos dice "Indeterminado" y nos explica por qué (ej: "Faltan datos oficiales" o "Las pruebas son contradictorias"), nos obliga a seguir investigando. Nos devuelve el poder de decidir.

En Resumen

Este papel nos dice que la IA debe dejar de actuar como un oráculo infalible y empezar a actuar como un ciudadano responsable.

  • Antes: "Creo que X es verdad" (basado en una sensación).
  • Ahora: "Puedo afirmar que X es verdad porque tengo este documento que lo prueba. Si no tengo el documento, no puedo decir nada".

Es una forma de decir: "No te daré una respuesta falsa solo para parecer útil. Si no tengo la prueba, te diré que no la tengo, para que tú, como ser humano, puedas seguir buscando la verdad". Es una herramienta para proteger nuestra capacidad de pensar y juzgar en un mundo lleno de máquinas que hablan demasiado bien.