Neuro-Symbolic Learning for Predictive Process Monitoring via Two-Stage Logic Tensor Networks with Rule Pruning

Die vorgestellte Arbeit führt einen zweistufigen neuro-symbolischen Lernansatz mit Logik-Tensor-Netzwerken und Regelpruning ein, der durch die Integration domänenspezifischer logischer Regeln die Vorhersagegenauigkeit bei sequenziellen Ereignisdaten wie im Gesundheitswesen oder Finanzsektor signifikant verbessert, ohne dabei die Einhaltung von Compliance-Vorgaben zu gefährden.

Fabrizio De Santis, Gyunam Park, Francesco Zanichelli

Veröffentlicht 2026-03-31
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Stellen Sie sich vor, Sie leiten eine große, chaotische Fabrik oder ein Krankenhaus. Tausende von Ereignissen passieren jeden Tag: Ein Patient wird aufgenommen, ein Laborergebnis kommt rein, eine Operation beginnt. Oder: Eine Kreditkarte wird benutzt, eine Überweisung getätigt, ein Konto gesperrt.

Das Problem:
Bisher haben Computer versucht, das Verhalten dieser Prozesse zu vorhersagen, indem sie einfach nur in die Vergangenheit geschaut haben. Sie haben gelernt: "Wenn A passiert, passiert meistens B." Das ist wie ein junger Auszubildender, der nur durch Beobachten lernt.
Aber das hat einen großen Haken: Der Auszubildende kennt die Regeln nicht.

  • Im Krankenhaus: "Man darf erst operieren, nachdem der Patient Nüchternheit geprüft wurde."
  • In der Bank: "Man darf kein Geld an einen neuen Empfänger senden, bevor die Identität geprüft ist."

Wenn der Computer nur auf Daten schaut und in der Vergangenheit selten ein Fehler passiert ist, lernt er vielleicht, dass man die Identitätsprüfung überspringen kann. Das ist gefährlich! Er ist "dumm" im Sinne von regelkonform, auch wenn er statistisch "klug" ist.

Die Lösung: Der "Neuro-Symbolische" Ansatz
Die Autoren dieses Papers haben eine clevere Idee entwickelt, die wir wie eine Zusammenarbeit zwischen einem Genie und einem strengen Lehrer vorstellen können.

  1. Der Genie-Teil (Neural Network): Das ist der Computer, der Muster erkennt. Er sieht tausende von Abläufen und lernt: "Aha, meistens passiert X nach Y." Er ist schnell und gut im Sehen von Trends.
  2. Der Lehrer-Teil (Symbolic Logic): Das sind die festen Regeln (wie die oben genannten). "Regel Nr. 1: Nie ohne Prüfung!"

Das alte Problem:
Wenn man den Genie und den Lehrer einfach zusammenbringt, passiert oft etwas Dummes. Der Genie versucht so sehr, den Lehrer zu gefallen (die Regeln zu erfüllen), dass er vergisst, die eigentlichen Muster zu lernen. Er sagt: "Okay, ich werde einfach nie operieren, dann verletze ich ja keine Regel!" – Das ist technisch korrekt, aber nutzlos für die Vorhersage. Der Computer wird "faul" und erfüllt die Regeln, indem er gar nichts tut.

Die neue Lösung: Der "Zwei-Stufen-Plan"
Die Autoren haben einen cleveren Trainingsplan entwickelt, um dieses Problem zu lösen. Man kann es sich wie das Lernen für eine schwierige Prüfung vorstellen:

  • Stufe 1: Das "Grundlagen-Seminar" (Pretraining mit Gewichtung)
    Zuerst lässt man den Computer (den Genie) erst mal die Daten lernen, ohne sich zu sehr um die strengen Regeln zu kümmern. Man sagt ihm: "Lies erst mal die Geschichte, versteh den Ablauf!" Die Regeln sind da, aber sie haben weniger Gewicht. So lernt der Computer, wie die Welt wirklich funktioniert, basierend auf echten Daten.

  • Stufe 2: Der "Strenge Filter" (Rule Pruning)
    Jetzt kommt der spannende Teil. Nicht alle Regeln sind gleich gut. Manche sind alt, falsch oder passen gar nicht zur aktuellen Situation.
    Der Computer schaut sich an: "Welche Regeln helfen mir wirklich, die Vorhersage zu verbessern? Und welche machen mich nur verwirrt?"
    Er wirft die schlechten, widersprüchlichen oder unnützen Regeln weg (das nennt man "Rule Pruning" oder "Regel-Schnitt"). Er behält nur die Regeln, die wirklich sinnvoll sind und die er auch wirklich einhalten kann, ohne die Vorhersage zu ruinieren.

  • Stufe 3: Das "Finale" (Fine-Tuning)
    Mit diesem bereinigten, perfekten Regelwerk und dem gelernten Datenwissen wird der Computer noch einmal feinjustiert. Jetzt ist er ein Meister: Er kennt die Muster der Vergangenheit und hält sich strikt an die wichtigen Sicherheitsregeln.

Warum ist das so cool?
Stellen Sie sich vor, Sie wollen ein Auto fahren lernen.

  • Ein reiner Daten-Ansatz (nur Muster) würde Sie lehren: "Fahr so schnell wie möglich, weil die meisten das tun." (Gefährlich!)
  • Ein reiner Regel-Ansatz würde sagen: "Fahre 0 km/h, dann verletze du keine Geschwindigkeitsbegrenzung." (Unnütz!)
  • Ihr Ansatz: Erst lernen Sie, wie man das Auto fährt (Daten), dann lernen Sie die Verkehrsregeln (Logik), aber Sie streichen die Regeln, die unsinnig sind (z.B. "Verbot von roter Farbe"), und behalten nur die wichtigen (Bremsen bei Rot).

Das Ergebnis:
Die Forscher haben das an echten Daten aus Krankenhäusern und Banken getestet. Das Ergebnis war beeindruckend:

  • Woherherkömmliche Computer bei seltenen, aber wichtigen Regeln (wie "Identitätsprüfung") versagten, weil sie diese Fälle in den Daten kaum sahen, glänzte ihr System.
  • Es konnte vorhersagen: "Achtung, hier fehlt die Identitätsprüfung!" – selbst wenn das in den Trainingsdaten nur 4% der Fälle waren.
  • Ohne ihren "Zwei-Stufen-Plan" wäre das System komplett zusammengebrochen und hätte schlechtere Ergebnisse geliefert als ein einfacher Computer ohne Regeln.

Zusammenfassend:
Sie haben eine Methode entwickelt, um Künstliche Intelligenz nicht nur "klug" (datenbasiert), sondern auch "diszipliniert" (regelbasiert) zu machen. Der Trick war, die Regeln nicht einfach aufzuzwingen, sondern sie erst zu lernen, dann zu filtern und erst dann voll einzusetzen. So wird die KI zum perfekten Assistenten, der keine Fehler macht und trotzdem die Welt versteht.