From Features to Actions: Explainability in Traditional and Agentic AI Systems

Este artículo demuestra que, a diferencia de los métodos de atribución efectivos en sistemas de IA estáticos, la explicabilidad basada en trazas es esencial para diagnosticar fallos en sistemas de IA agénticos, revelando que la inconsistencia en el seguimiento de estados es una causa principal de fracaso en sus trayectorias de decisión.

Sindhuja Chaduvula, Jessee Ho, Kina Kim, Aravind Narayanan, Mahshid Alinoori, Muskan Garg, Dhanesh Ramachandram, Shaina Raza

Publicado 2026-03-09
📖 5 min de lectura🧠 Análisis profundo

Each language version is independently generated for its own context, not a direct translation.

Imagina que la Inteligencia Artificial (IA) ha estado cambiando su forma de trabajar. Durante mucho tiempo, las IAs funcionaban como máquinas de café automáticas: tú metes un grano (la entrada), presionas un botón, y sale una taza de café (la salida). Si el café sale amargo, los expertos en "explicabilidad" (XAI) miraban el grano para decirte: "Ah, el problema es que este grano era muy viejo".

Pero ahora, las IAs han evolucionado hacia agentes autónomos, que son más como chefs en una cocina profesional. Un chef no solo hace una cosa; sigue una receta compleja: corta verduras, calienta la sartén, añade sal, prueba la salsa, y si algo sale mal, intenta arreglarlo antes de servir el plato. Si el plato final está quemado, no basta con decir "la harina era mala". Hay que mirar toda la historia: ¿Se olvidó el chef de bajar el fuego? ¿Usó la sartén equivocada? ¿Se distrajo y dejó que el agua hirviera demasiado?

Este artículo, titulado "De Características a Acciones: Explicabilidad en Sistemas de IA Tradicionales y Agénticos", explica por qué las herramientas antiguas para entender a las IAs ya no funcionan para los nuevos "chefs" (agentes) y qué necesitamos en su lugar.

Aquí tienes los puntos clave explicados con analogías sencillas:

1. El Problema: La vieja lupa no sirve para el laberinto

Antiguamente, para explicar una IA, usábamos métodos como SHAP o LIME. Imagina que son una lupa que te dice qué palabras de un texto fueron las más importantes para que la IA tomara una decisión.

  • Funciona bien en lo estático: Si la IA solo tiene que clasificar un correo como "spam" o "no spam", la lupa funciona perfecto. Te dice qué palabras activaron la alarma.
  • Fallan en lo dinámico: Cuando la IA es un agente que toma decisiones paso a paso (como reservar un vuelo o navegar por internet), la lupa se queda corta. No puede decirte por qué el agente se equivocó en el paso 3, ni cómo ese error arruinó el paso 10. Es como intentar entender por qué un coche se salió de la carretera mirando solo el volante, sin ver el mapa, el estado de la carretera o las decisiones anteriores del conductor.

2. La Solución: El "Cinta de Video" (Trace-Based)

Los autores proponen que, para entender a los agentes, no necesitamos una lupa, sino una cinta de video completa de todo lo que hizo el agente.

  • En lugar de mirar solo la entrada y la salida, miramos la trayectoria: cada pensamiento, cada herramienta que usó, cada error que cometió y cómo intentó arreglarlo.
  • Imagina que tienes un detective privado que revisa la cinta de video del chef. El detective no solo dice "el plato salió mal", sino que señala: "Aquí, en el minuto 5, el chef usó la sal en lugar de la pimienta, y aunque intentó corregirlo en el minuto 8, ya era tarde".

3. El Hallazgo Sorprendente: La "Inconsistencia de Estado"

El equipo probó sus ideas en dos escenarios:

  • Escenario A (Estático): Clasificar ofertas de trabajo. Aquí, las herramientas antiguas funcionaron bien y fueron estables.
  • Escenario B (Agentes): Agentes que intentan reservar vuelos o ayudar en tareas web.

¿Qué descubrieron?
En los agentes, el error más común y peligroso no fue elegir la herramienta equivocada, sino perder el hilo de la historia.

  • La analogía: Imagina que eres un agente de viajes. El cliente dice: "Quiero volar el lunes". Tú buscas vuelos. Pero en tu "memoria" (estado interno), olvidaste que el cliente también dijo "no quiero escalas". Sigues buscando vuelos con escalas. Al final, el agente falla, pero no porque no supiera buscar, sino porque olvidó mantener la coherencia de lo que sabía.
  • El estudio encontró que esta "pérdida de memoria" o inconsistencia de estado era 2.7 veces más común en los intentos fallidos y reducía la probabilidad de éxito casi a la mitad.

4. La Nueva Herramienta: El "Paquete Mínimo de Explicación" (MEP)

Para arreglar esto, los autores proponen un nuevo formato de explicación llamado MEP.

  • Antes: Te daban un gráfico de barras diciendo "la palabra 'gratis' fue importante".
  • Ahora (MEP): Te dan un paquete que incluye:
    1. La explicación: "El agente falló porque olvidó actualizar su memoria".
    2. La evidencia: El registro exacto de dónde ocurrió el olvido en la cinta de video.
    3. La verificación: Una señal que confirma que la explicación es real y no una invención.

Es como si, en lugar de recibir un informe de "coche averiado", recibieras el manual de reparación, la pieza rota y el video de cómo se rompió.

Conclusión: ¿Por qué importa esto?

Este cambio es vital para el futuro. Si queremos confiar en IAs que toman decisiones por sí mismas (en hospitales, bancos o coches autónomos), no podemos conformarnos con saber qué decisión tomaron. Necesitamos saber cómo llegaron a esa decisión, dónde se desviaron del camino y por qué no pudieron recuperarse.

En resumen:

  • IA Vieja (Estática): Como un examen de opción múltiple. Si fallas, miras la pregunta.
  • IA Nueva (Agente): Como un viaje en barco. Si te pierdes, no basta con mirar el mapa final; necesitas revisar el diario de navegación para ver en qué momento el capitán giró mal el timón.

Este artículo nos dice que es hora de dejar de mirar solo el resultado final y empezar a revisar el "diario de viaje" de nuestras IAs para hacerlas más seguras y confiables.

Recibe artículos como este en tu bandeja de entrada

Resúmenes diarios o semanales personalizados según tus intereses. Gists o resúmenes técnicos, en tu idioma.

Probar Digest →