From Business Events to Auditable Decisions: Ontology-Governed Graph Simulation for Enterprise AI

Dit paper introduceert LOM-action, een architectuur die betrouwbare en controleerbare enterprise AI-beslissingen mogelijk maakt door gebeurtenisgestuurde ontologisimulatie in een gesandboxde grafstructuur, waardoor een fundamenteel tekort aan gronding en auditbaarheid in bestaande LLM-agenten wordt opgelost.

Hongyin Zhu, Jinming Liang, Mengjun Hou, Ruifan Tang, Xianbin Zhu, Jingyuan Yang, Yuanman Mao, Feng Wu

Gepubliceerd 2026-04-13
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

De Kernprobleem: De "Fluïde" maar "Onbetrouwbare" AI

Stel je voor dat je een zeer slimme, maar ongedisciplineerde assistent hebt. Deze assistent (de huidige AI) heeft alles gelezen wat er bestaat. Als je hem vraagt: "Wat is de beste route voor deze vrachtwagen?", geeft hij direct een prachtig, vloeiend antwoord. Hij klinkt als een expert.

Maar er is een groot probleem: Hij kijkt niet naar de regels van vandaag.
Misschien is de vrachtwagen niet verzekerd voor die route, of is er een staking bij de haven, of heeft de chauffeur geen vergunning meer. De AI weet dit niet, omdat hij gewoon "uit zijn hoofd" antwoordt op basis van zijn algemene kennis. Hij geeft een antwoord dat klinkt alsof het klopt, maar in de echte wereld is het onmogelijk of illegaal.

In de zakenwereld noemen we dit "Illusoire Nauwkeurigheid": Het antwoord lijkt perfect (98% correct), maar het is gebaseerd op een verkeerde werkelijkheid. Als je dit foutieve antwoord volgt, krijg je een boete of een crash.

De Oplossing: LOM-action (De "Simulatie-Motor")

De auteurs van dit paper (van Yonyou) hebben een nieuwe manier bedacht om AI te bouwen voor bedrijven. Ze noemen het LOM-action.

In plaats van dat de AI direct antwoordt, dwingen ze de AI om eerst een simulatie te draaien.

De Analogie: De "Proefkeuken"

Stel je voor dat een groot restaurant een nieuw gerecht wil serveren.

  • De oude manier (Huidige AI): De chef-kok (de AI) denkt na over het recept en zegt direct: "Dit smaakt perfect!" Hij heeft het nooit echt geproefd.
  • De nieuwe manier (LOM-action): De chef-kok moet eerst naar de proefkeuken (de sandbox).
    1. De gebeurtenis: Er komt een bestelling binnen (bijv. "Een klant wil een dure rekening betalen").
    2. De simulatie: De chef pakt een kopie van het menu en de regels van het restaurant. Hij past deze aan op basis van de specifieke situatie (bijv. "Deze klant heeft een korting, maar mag niet meer dan €500 uitgeven"). Hij snijdt de ingrediënten die niet mogen, en voegt de nieuwe regels toe. Dit is de gesimuleerde wereld.
    3. De beslissing: Pas nadat hij in die gesimuleerde wereld heeft gekeken, zegt hij: "Oké, nu ik weet wat de regels zijn, is het antwoord: Ja, maar alleen tot €500."

Hoe werkt het precies? (Stap voor Stap)

Het proces van LOM-action bestaat uit drie fases, zoals een strakke receptie:

  1. Fase 1: De Vertaler (Scenario Parsing)
    De AI leest de vraag en vertaalt deze naar de "taal van de regels" (de Ontologie). Hij vraagt zich af: "Welke regels gelden er nu? Wie mag wat?"

    • Voorbeeld: "Ah, deze vraag gaat over een nieuwe afdeling. Ik moet de regels voor die afdeling activeren."
  2. Fase 2: De Zandbak (Sandbox Simulation)
    Dit is het belangrijkste deel. De AI maakt een tijdelijke kopie van de bedrijfsgegevens (de grafiek). In deze zandbak past hij de regels toe.

    • Hij verwijdert knopen die niet mogen.
    • Hij voegt nieuwe regels toe.
    • Belangrijk: Hij doet dit in een gesloten ruimte. Hij raakt de echte, vaste database nooit aan. Hij creëert een "wereld van nu".
  3. Fase 3: De Beslissing (Decision Derivation)
    Pas nu, met die aangepaste wereld in zijn hoofd, vraagt de AI: "Wat is het beste antwoord in deze specifieke wereld?"

    • Het antwoord is nu gegarandeerd correct volgens de regels.
    • Er is een auditlog: een volledige lijst van wat er in de zandbak is gebeurd. Als er later een vraag komt "Waarom heb je dit gedaan?", kan je precies zien welke regels er zijn toegepast.

Twee Manieren van Werken (De "Twee-Modus" Architectuur)

De AI werkt op twee manieren, afhankelijk van de vraag:

  • De Vaardigheids-modus (Skill Mode): Als er al een bekende tool is (bijv. "Bereken de kortste route"), gebruikt de AI die tool direct op de gesimuleerde wereld. Dit is snel en foutloos.
  • De Redenerings-modus (Reasoning Mode): Als er een heel nieuwe, rare vraag is waar geen tool voor bestaat, denkt de AI zelf na over de gesimuleerde wereld. Hij leest de aangepaste regels en berekent het antwoord.

Waarom is dit zo belangrijk?

De paper toont aan dat de huidige super-AI's (zoals DeepSeek of Doubao) snel maar onbetrouwbaar zijn in complexe situaties.

  • Ze hebben een 80% nauwkeurigheid (ze lijken het goed te doen).
  • Maar hun Tool-Chain F1 (een maatstaf voor of ze de regels echt hebben gevolgd) is slechts 24-36%. Ze snijden de hoekjes af.

LOM-action daarentegen heeft:

  • 93% nauwkeurigheid.
  • 98% Tool-Chain F1.

Ze volgen de regels altijd. Ze simuleren eerst, beslissen daarna.

De Grootste Les: "Simulatie Eerst"

De kernboodschap van dit paper is: Grootheid van het model is niet alles.
Het maakt niet uit hoe slim je AI is; als hij niet eerst de "regels van vandaag" simuleert, is zijn antwoord waardeloos voor een bedrijf.

  • Consumenten-AI: "Geef me het leukste antwoord." (De AI mag fantaseren).
  • Bedrijfs-AI: "Geef me het controleerbare antwoord." (De AI moet eerst de wetten van de situatie simuleren).

Samenvatting in één zin

LOM-action is een slimme AI die niet direct antwoordt, maar eerst een "proefversie" van de werkelijkheid maakt om te zien welke regels gelden, zodat elk antwoord dat hij geeft, niet alleen slim klinkt, maar ook juridisch en logisch waterdicht is.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →