NRR-Phi: Text-to-State Mapping for Ambiguity Preservation in LLM Inference

El artículo presenta NRR-Phi, un marco formal que mapea texto a un espacio de estados no colapsante mediante detección de conflictos y extracción de interpretaciones para preservar la ambigüedad semántica en la inferencia de modelos de lenguaje grandes.

Kei Saito

Publicado 2026-03-05
📖 4 min de lectura☕ Lectura para el café

Each language version is independently generated for its own context, not a direct translation.

Imagina que tu cerebro es como un gran orador en un escenario. Cuando alguien le hace una pregunta ambigua, por ejemplo: "Quiero renunciar a mi trabajo, pero también no quiero renunciar", el cerebro de una Inteligencia Artificial (IA) tradicional actúa como un orador nervioso que, ante la duda, toma una decisión inmediata para no quedarse en silencio.

La IA dice: "¡Ah! Entiendo, te sientes confundido, así que vamos a hacer una lista de pros y contras para que decidas". O bien elige un lado: "Parece que prefieres quedarte".

El problema es que, al tomar esa decisión tan rápido, la IA destruye la otra mitad de la verdad. Olvida que el sentimiento de "no querer irse" sigue siendo válido y real. En el mundo real, las personas a menudo viven con dos verdades opuestas al mismo tiempo (ambivalencia), pero las IAs actuales están programadas para "resolver" el conflicto antes de tiempo.

¿Qué propone este nuevo papel? (NRR-Phi)

El autor, Kei Saito, presenta una nueva herramienta llamada NRR-Phi. Piensa en esto no como un orador que habla, sino como un arquitecto de habitaciones.

En lugar de forzar a la IA a elegir una sola habitación (una sola interpretación) para vivir, NRR-Phi construye un edificio con muchas habitaciones donde todas las interpretaciones posibles pueden vivir juntas, sin pelearse.

La analogía del "Mapa de Estados"

Imagina que la IA tradicional es como un GPS que, al llegar a una encrucijada borrosa, te dice: "Vira a la izquierda, esa es la única ruta". Si te equivocas, el GPS se rompe o te da la vuelta.

NRR-Phi es como un GPS de realidad aumentada que, ante la misma encrucijada borrosa, te muestra:

  1. Una ruta que va a la izquierda.
  2. Una ruta que va a la derecha.
  3. Una ruta que dice "quizás".

Y lo más importante: el GPS no borra ninguna de las rutas. Las mantiene todas activas en la pantalla mientras sigues conduciendo. Solo cuando llegas a un punto donde la señal es clara, el GPS decide cuál ruta mostrar en grande. Mientras tanto, todas las posibilidades siguen vivas.

¿Cómo funciona la magia? (Los 3 pasos)

El papel explica que este sistema funciona en tres etapas simples:

  1. Detectar la Confusión (El Detector de "Pero"):
    La IA busca palabras clave que indican duda o conflicto. En español, palabras como "pero", "quizás", "tal vez" o "aunque". En japonés (que el paper también prueba), busca palabras como "kedo" o "kamoshirenai". Es como tener un detector de humo que avisa: "¡Oye, aquí hay dos ideas chocando!".

  2. Extraer las Interpretaciones (El Traductor de Múltiples Vozes):
    Una vez detectado el conflicto, el sistema no elige. En su lugar, usa dos métodos para sacar todas las ideas posibles:

    • Reglas simples: Si dice "pero", separa la frase en dos partes.
    • Inteligencia Artificial avanzada: Si la duda es más sutil (como un juego de palabras), pide a una IA que liste todas las formas en que se puede entender esa frase.
  3. Construir el Estado (La Sala de Espera):
    Todas esas interpretaciones se guardan en un "estado" especial. Imagina una sala de espera donde cada interpretación tiene un asiento y un letrero que dice "Esta es una posibilidad válida". Ninguna es expulsada.

¿Por qué es importante?

El papel demuestra que, al usar este sistema, la IA mantiene un nivel de incertidumbre saludable (llamado "entropía" en el paper).

  • IA Normal: Cuando ve ambigüedad, su "incertidumbre" cae a cero (se equivoca al creer que ya sabe la respuesta).
  • IA con NRR-Phi: Mantiene su incertidumbre alta (alrededor de 1.087 bits), lo que significa que sabe que no sabe y mantiene todas las opciones abiertas.

Un ejemplo del mundo real: El apoyo psicológico

El paper menciona un uso muy interesante: terapia.
Si un paciente dice: "Amo a mi pareja, pero estar con ella me hace daño".

  • IA vieja: Diría: "Parece que deberías dejarla" o "Hagamos una lista de pros y contras". Intenta resolver el problema de inmediato.
  • IA con NRR-Phi: Diría: "Entiendo que amas a tu pareja Y al mismo tiempo te hace daño. Ambas cosas son verdaderas y pueden coexistir".

No fuerza una solución. Permite que la persona explore esa contradicción sin sentirse presionada a elegir un lado inmediatamente.

En resumen

Este papel no dice que las IAs deban ser confusas para siempre. Dice que no deben decidir demasiado pronto.

Es como si le dijéramos a la IA: "No tienes que responder ahora mismo. Puedes guardar todas las respuestas posibles en una caja, esperar a tener más información, y solo abrir la caja cuando sea el momento adecuado".

Esto hace que las IAs sean más humanas, más pacientes y, sobre todo, más capaces de entender la complejidad de lo que realmente decimos.