Uncertainty Quantification in LLM Agents: Foundations, Emerging Challenges, and Opportunities

Este artículo propone un marco principista para la cuantificación de incertidumbre en agentes de modelos de lenguaje, estableciendo sus fundamentos teóricos, identificando cuatro desafíos técnicos clave en entornos interactivos y delineando direcciones futuras para mejorar la seguridad en aplicaciones complejas.

Changdae Oh, Seongheon Park, To Eun Kim, Jiatong Li, Wendi Li, Samuel Yeh, Xuefeng Du, Hamed Hassani, Paul Bogdan, Dawn Song, Sharon Li

Publicado 2026-03-09
📖 5 min de lectura🧠 Análisis profundo

Each language version is independently generated for its own context, not a direct translation.

¡Claro que sí! Imagina que los Agentes de IA (como Chatbots avanzados) son como nuevos empleados muy inteligentes que acabas de contratar para hacer tareas complejas, como reservar un vuelo, arreglar un problema en tu computadora o incluso diagnosticar una enfermedad.

El problema es que, a veces, estos empleados "alucinan" (inventan cosas) o toman decisiones precipitadas sin estar seguros de lo que hacen. Aquí es donde entra el concepto de Cuantificación de la Incertidumbre (UQ) que trata este paper.

Aquí tienes la explicación sencilla, usando analogías de la vida real:

1. El Problema: El Empleado que "Adivina" en Vuelo

Antes, los investigadores solo miraban si el empleado daba la respuesta final correcta a una pregunta simple (como un examen de opción múltiple).

  • La vieja forma: "¿Sabes la capital de Francia?" -> "París". Fin.
  • La nueva realidad (Agentes): El empleado tiene que hacer una tarea larga: "Reserva un vuelo para mi tía". Tiene que buscar fechas, llamar a la aerolínea, preguntar al usuario si prefiere ventanilla o pasillo, y luego pagar.

El problema es que, en este proceso largo, el empleado puede:

  • Adivinar una fecha sin preguntar.
  • Inventar un precio.
  • Quedarse atascado en un bucle de errores.

Si el empleado no sabe cuándo está inseguro, podría cometer un error costoso (como cancelar tu vuelo real) y decir: "¡Lo siento, pensé que estaba seguro!".

2. La Solución: El "Semáforo de Confianza"

El paper propone que estos agentes necesitan un semáforo interno que les diga: "Oye, en este paso estoy muy inseguro, mejor pregunta al usuario antes de seguir".

Los autores dicen que necesitamos cambiar la forma de medir la incertidumbre:

  • Antes: Medir la duda solo al final del examen.
  • Ahora: Medir la duda en cada paso de la conversación y en cada acción que toma el agente.

3. Los 4 Grandes Desafíos (Los "Monstruos" a vencer)

Los autores identifican cuatro obstáculos principales para crear este semáforo perfecto:

A. ¿Qué herramienta usamos para medir la duda? (El Termómetro)

Imagina que quieres medir la temperatura de un paciente.

  • Método 1 (Probabilidad): Usas un termómetro digital que solo funciona si el paciente te deja ver sus datos internos. Pero muchos agentes modernos son "cajas negras" y no te dejan ver esos datos.
  • Método 2 (Consistencia): Le pides al agente que responda la misma pregunta 10 veces. Si dice cosas distintas, está inseguro. Pero esto es muy lento y caro (como pedirle al paciente que se tome la temperatura 10 veces seguidas).
  • Método 3 (Preguntar): Le preguntas al agente: "¿Qué tan seguro estás?". Pero a veces mienten o se confían demasiado.
  • El reto: Necesitamos un termómetro que funcione rápido, sea barato y no necesite abrir la caja negra.

B. La Incertidumbre de los "Otros" (El Cliente y el Mundo)

El agente no solo piensa él solo; interactúa con usuarios reales y herramientas (bases de datos).

  • La analogía: Imagina que eres un detective. Tú puedes estar seguro de tu teoría, pero el testigo (el usuario) puede estar confundido, o la policía (la herramienta) puede darte un dato falso.
  • El reto: ¿Cómo mide el agente la duda del otro? Si el usuario dice algo ambiguo, el agente debe saber que esa ambigüedad viene de fuera, no de su propia mente.

C. La Dinámica del Juego (El Tablero de Ajedrez)

En una conversación larga, la incertidumbre no siempre sube; a veces baja.

  • La analogía: Imagina que estás buscando tus llaves. Al principio, tienes mucha incertidumbre (¿están en la cocina? ¿en el coche?). Pero si preguntas a tu hijo ("¿Viste las llaves?") y él te dice "Están en el sofá", tu incertidumbre baja drásticamente.
  • El problema actual: Los métodos viejos suman la duda de cada paso como si fuera una montaña que nunca baja. Pero en la vida real, preguntar y buscar información reduce la duda. Necesitamos un sistema que sepa cuándo la duda disminuye gracias a una buena pregunta.

D. Falta de Mapas Detallados (Los Benchmarks)

Para entrenar a estos agentes, necesitamos exámenes que midan no solo si ganaron o perdieron, sino en qué paso específico fallaron.

  • La realidad: La mayoría de los exámenes actuales solo dicen: "¿Lograste reservar el vuelo? Sí/No".
  • Lo que falta: Necesitamos exámenes que digan: "Fallaste en el paso 3 porque no preguntaste la fecha correcta". Sin estos mapas detallados, es difícil mejorar el sistema.

4. ¿Por qué nos importa esto? (El Impacto Real)

Si logramos que estos agentes tengan un "semáforo de incertidumbre" perfecto, podemos usarlos en situaciones de vida o muerte:

  • Médicos: Un agente que diagnostica cáncer debe decir: "Estoy 90% seguro, pero hay un 10% de duda, así que llama a un médico humano para confirmar".
  • Programadores: Un agente que arregla código debe decir: "Este parche parece bien, pero tengo dudas, así que haz una copia de seguridad antes de aplicarlo".
  • Robots: Un robot que lleva un jarrón frágil debe decir: "No veo bien el suelo, mejor me detengo y escaneo de nuevo" en lugar de tropezar.

En Resumen

Este paper es un manifiesto que dice: "Dejemos de tratar a los agentes de IA como máquinas de responder preguntas. Son compañeros de trabajo que interactúan con el mundo. Necesitamos enseñarles a decir 'No estoy seguro' en el momento justo, para que no cometan errores costosos, y necesitamos nuevas herramientas para medir esa duda paso a paso".

Es como pasar de tener un empleado que solo responde "Sí" o "No" a tener un asistente experto que sabe cuándo pedir ayuda.

Recibe artículos como este en tu bandeja de entrada

Resúmenes diarios o semanales personalizados según tus intereses. Gists o resúmenes técnicos, en tu idioma.

Probar Digest →