Neuro-Symbolic Learning for Predictive Process Monitoring via Two-Stage Logic Tensor Networks with Rule Pruning

Este artigo apresenta uma abordagem neuro-simbólica inovadora para monitoramento preditivo de processos, que integra regras de domínio como restrições lógicas diferenciáveis em Redes Tensoriais Lógicas através de uma estratégia de otimização em duas etapas (pré-treinamento com perda ponderada e poda de regras), demonstrando melhorias significativas na precisão e conformidade em cenários com dados limitados comparado a métodos puramente baseados em dados.

Fabrizio De Santis, Gyunam Park, Francesco Zanichelli

Publicado 2026-03-31
📖 5 min de leitura🧠 Leitura aprofundada

Each language version is independently generated for its own context, not a direct translation.

Imagine que você está tentando ensinar um robô muito inteligente, mas um pouco "ingênuo", a prever o futuro de um processo complexo, como o tratamento de um paciente em um hospital ou a aprovação de um empréstimo bancário.

O robô é um aprendiz de dados: ele olha para milhares de casos passados e aprende padrões. Se 99% das vezes que o médico pede um exame, o paciente fica bem, o robô aprende: "Exame pedido = Tudo bem".

O problema é que o mundo real tem regras rígidas que o robô ingênuo não entende. Por exemplo:

  • Regra do Hospital: "Nunca se pode operar um paciente se ele não tiver feito o exame de sangue antes."
  • Regra do Banco: "Nunca se pode transferir dinheiro para uma conta nova sem verificar a identidade primeiro."

Se o robô apenas olhar os dados, ele pode ver um caso raro onde alguém operou sem exame (talvez um erro humano no passado) e achar que é normal. Quando ele tentar prever o futuro, ele pode sugerir algo perigoso ou ilegal, porque "os dados diziam que era possível".

A Solução: O "Mestre" e o "Estudante" (Neuro-Simbólico)

Os autores deste paper criaram uma equipe de dois para resolver isso:

  1. O Estudante (Rede Neural): É o robô que aprende com os dados, rápido e esperto com padrões.
  2. O Mestre (Lógica Simbólica): É um especialista que conhece as regras do manual (as leis, os protocolos de segurança).

A ideia é fazer o Estudante aprender com os dados, mas sempre sob a supervisão do Mestre. Se o Mestre diz "Isso viola a regra 5", o robô não pode ignorar.

O Grande Problema: O Mestre que "Engana"

Aqui entra a parte genial do artigo. Quando você coloca o Mestre e o Estudante juntos, às vezes o Mestre é tão rígido que o robô fica confuso.

Imagine que o robô precisa aprender a prever se um empréstimo será aprovado. O Mestre diz: "Se o cliente tem nome sujo, não aprova". Mas e se, nos dados, houver 100 casos de clientes com nome sujo que foram aprovados por erro do sistema?
O robô, tentando agradar o Mestre e os dados ao mesmo tempo, pode entrar em pânico. Para não violar a regra do Mestre, ele pode começar a dizer "Nunca aprovo nada" (uma solução fácil, mas inútil). Ou pior, ele pode "trapacear" e encontrar jeitos de satisfazer a regra do Mestre sem realmente aprender a prever o futuro corretamente. Isso é chamado de "satisfação vazia": ele cumpriu a regra, mas não aprendeu nada útil.

A Inovação: O Treinamento em Duas Etapas

Para evitar essa confusão, os autores criaram um método de treinamento em duas etapas, como se fosse uma escola com um currículo especial:

Etapa 1: O Robô Aprende Primeiro (Pré-treinamento Ponderado)
Nesta fase, deixamos o robô focar quase 100% nos dados. O Mestre (as regras) está lá, mas ele é um "mestre gentil". Ele sussurra as regras, mas não grita. Isso garante que o robô aprenda a entender o mundo real primeiro. Se o robô tentar "trapacear" para agradar o Mestre, nós damos uma "chicotada" (uma penalidade no treinamento) para forçá-lo a olhar os dados de verdade.

Etampa 2: A Grande Limpeza (Poda de Regras)
Depois que o robô já entendeu o básico, olhamos para todas as regras que o Mestre trouxe.

  • Algumas regras são ótimas e ajudam o robô a acertar mais.
  • Outras regras são ruins, contraditórias ou apenas confundem o robô (como regras que nunca acontecem na prática).

Nesta etapa, fazemos uma "poda". Jogamos fora as regras que não estão ajudando ou que estão causando confusão. Mantemos apenas as regras que realmente fazem sentido e que o robô consegue seguir sem perder a capacidade de prever o futuro.

Etapa 3: O Refinamento Final
Agora, com um robô esperto e um conjunto de regras limpo e útil, treinamos tudo junto novamente. O resultado é um sistema que sabe os dados de cor e sabe as regras de coração.

Por que isso é incrível? (Os Resultados)

Os autores testaram isso em situações reais, como:

  • Prever complicações em cirurgias: Onde seguir a ordem certa dos passos é vital.
  • Detecção de fraudes: Onde seguir regras de compliance é obrigatório.

O resultado foi surpreendente:

  1. Sem o método: Se você apenas jogasse todas as regras no robô de uma vez, ele ficava pior do que se não tivesse regras nenhuma (ele "quebrava").
  2. Com o método: O robô ficou muito mais preciso, especialmente em situações difíceis onde há poucos exemplos de "casos perfeitos" para aprender.

Resumo em uma Analogia Final

Pense no robô como um jovem piloto de avião.

  • Os dados são as horas de voo que ele já fez.
  • As regras são o manual de segurança da aviação.

Se você colocar o manual inteiro na cabeça do piloto antes de ele decolar, ele pode ficar paralisado de medo ou tentar voar de um jeito que "parece" seguro no papel, mas não funciona na prática.

O método deste artigo é como um instrutor de voo:

  1. Primeiro, ele deixa o piloto voar e sentir o avião (aprender com os dados).
  2. Depois, ele revisa o manual, rasga as páginas que são irrelevantes para aquele tipo de avião (poda de regras).
  3. Por fim, ele ensina o piloto a usar as regras certas para evitar acidentes, garantindo que ele voe bem e com segurança.

Essa abordagem garante que a inteligência artificial não seja apenas "esperta com dados", mas também "segura e obediente às regras", algo crucial para hospitais, bancos e indústrias.