Compliance-Aware Predictive Process Monitoring: A Neuro-Symbolic Approach

Este artículo presenta un enfoque neuro-simbólico basado en Redes de Tensores Lógicos para la monitorización predictiva de procesos, el cual integra conocimiento de dominio específico en los modelos de aprendizaje para mejorar tanto el cumplimiento normativo como la precisión de las predicciones en comparación con los métodos sub-simbólicos tradicionales.

Fabrizio De Santis, Gyunam Park, Wil M. P. van der Aalst

Publicado 2026-03-31
📖 5 min de lectura🧠 Análisis profundo

Each language version is independently generated for its own context, not a direct translation.

¡Claro que sí! Imagina que este paper es como una historia sobre cómo enseñar a un robot muy inteligente, pero un poco ingenuo, a predecir el futuro de un proceso de trabajo (como un hospital o un banco) sin cometer errores tontos.

Aquí tienes la explicación sencilla, con analogías de la vida real:

🧠 El Problema: El Robot que solo mira el pasado

Imagina que tienes un chef robot (una Inteligencia Artificial) que ha cocinado miles de platos. Si le preguntas: "¿Qué va a pasar si el cliente pide esto?", el robot mira sus libros de recetas antiguos (los datos históricos) y dice: "Bueno, el 90% de las veces que pasó esto, el cliente se enfermó".

El problema es que el robot solo aprende de la experiencia pasada. No tiene sentido común ni conoce las reglas de la casa.

  • Ejemplo: Si en el pasado, a veces operaban a pacientes sin esperar una semana, el robot podría pensar: "¡Ah! Se puede operar inmediatamente".
  • La realidad: ¡Pero la regla del hospital dice: "Nunca operes si no ha pasado una semana!"!
  • El resultado: El robot hace predicciones precisas estadísticamente, pero ilegales o peligrosas porque ignora las reglas de cumplimiento.

💡 La Solución: El "Abogado" y el "Chef" trabajando juntos

Los autores proponen una idea genial: Neuro-Simbólico.
Es como unir a dos personas en un equipo:

  1. El Chef (Red Neuronal): Es experto en ver patrones y aprender de miles de ejemplos. Es rápido y bueno con los datos.
  2. El Abogado (Lógica Simbólica): Es experto en las reglas, las leyes y el sentido común. No necesita ver miles de ejemplos para saber que "robar está mal" o "no se puede operar sin esperar".

En lugar de dejar que el Chef decida solo, el Abogado se sienta a su lado y le susurra: "Oye, recuerda la regla 4: no operes si no ha pasado una semana".

🛠️ ¿Cómo lo hacen? (El proceso en 4 pasos)

El paper describe un "taller" donde construyen este robot inteligente:

  1. Recoger los ingredientes (Extracción de características):
    Miran los datos del hospital (tiempos, nombres de actividades, edad del paciente) y los organizan. Es como poner todos los ingredientes en la mesa.

  2. Escribir las reglas del juego (Extracción de reglas):
    Usan herramientas para encontrar patrones lógicos.

    • Regla de flujo: "Primero el chequeo, luego la cirugía".
    • Regla de tiempo: "Si pasa más de 2 horas, hay riesgo".
    • Regla de datos: "Si el paciente tiene diabetes, necesita cuidado extra".
  3. Crear el "Manual de Instrucciones" (Creación de la base de conocimientos):
    Traducen esas reglas a un lenguaje que el robot pueda entender (Lógica de Primer Orden). Es como escribir un manual de instrucciones muy estricto que el robot debe seguir.

  4. Inyectar el conocimiento (El momento mágico):
    Aquí es donde ocurre la magia. No solo le dan el manual al robot; lo integran en su cerebro de tres formas diferentes (como se ve en la Fig. 3 del paper):

    • A) Ampliar la vista (Feature Expansion): Le dicen al robot: "Mira, si el paciente es mayor y diabético, añade una etiqueta de 'Peligro' a su ficha antes de empezar a pensar".
    • B) Corregir la respuesta (Output Refinement): Si el robot dice "Probabilidad de complicación: 10%", pero la regla dice "Si se dieron antibióticos a tiempo, baja al 1%", el robot ajusta su respuesta automáticamente para cumplir la regla.
    • C) Vigilancia paralela (Parallel Constraints): Le ponen un "guardia de seguridad" que vigila todo el proceso. Si el robot intenta aprender un patrón que viola una regla (ej. "operar sin chequeo"), el guardia le da una "patada" (penalización) para que deje de hacerlo.

🏆 Los Resultados: ¿Funciona?

Probaron esto con datos reales de hospitales (sepsis) y bancos (solicitudes de préstamo).

  • Sin el Abogado (Solo Chef): El robot era bueno, pero a veces hacía cosas prohibidas o fallaba cuando los datos eran raros.
  • Con el Abogado (Enfoque Neuro-Simbólico):
    • Más preciso: Adivinó mejor qué iba a pasar.
    • Más obediente: Cumplió las reglas casi el 100% de las veces, incluso cuando en los datos de entrenamiento casi nadie las seguía.
    • Más seguro: Funcionó muy bien incluso cuando había pocos ejemplos de "casos perfectos" para aprender.

🌟 En resumen

Imagina que entrenar a una IA solo con datos es como enseñar a un niño a conducir solo mirando videos de accidentes: aprenderá a evitar lo que vio, pero no sabrá por qué existen las señales de "Pare".

Este paper propone enseñarle al niño las señales de tráfico (las reglas) mientras practica. El resultado es un conductor (la IA) que no solo es rápido y ve bien el camino, sino que nunca se salta un semáforo rojo, haciendo que las predicciones sean más inteligentes, justas y seguras para el mundo real.