Delta1 with LLM: symbolic and neural integration for credible and explainable reasoning

Dit paper introduceert Delta1 met LLM, een neuro-symbolisch raamwerk dat de formele strengheid van de Automatische Theorema Generator Delta1 combineert met de verbaal vermogens van grote taalmodellen om betrouwbare en uitlegbare redenering te realiseren.

Yang Xu, Jun Liu, Shuwei Chen, Chris Nugent, Hailing Guo

Gepubliceerd 2026-03-16
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een zeer slimme, maar soms wat chaotische vertaler hebt (een LLM, of "Groot Taalmodel"). Deze vertaler kan prachtige verhalen vertellen, maar hij maakt soms fouten in de logica of verzonnen feiten. Aan de andere kant heb je een wiskundige die onfeilbaar is, maar die alleen in droge formules spreekt en geen menselijke uitleg kan geven.

Dit paper introduceert ∆1–LLM: een team-up van deze twee, zodat je de beste van beide werelden krijgt. Het is alsof je een onfeilbare architect (de wiskundige) en een charmante gids (de vertaler) samenwerkt om een huis te bouwen dat zowel stevig is als makkelijk te begrijpen.

Hier is hoe het werkt, in gewone taal:

1. Het Probleem: De "Gouden Kooi" van de Waarheid

Stel je voor dat je een set regels hebt voor een ziekenhuis, een wetboek of een contract. Soms zijn deze regels in strijd met elkaar.

  • Regel A zegt: "Als je koorts hebt, moet je antibiotica nemen."
  • Regel B zegt: "Als je een virus hebt, mag je géén antibiotica nemen."
  • Regel C zegt: "Je hebt koorts én een virus."

Een gewone computer of AI kan hierin verwarren raken of een willekeurig antwoord geven. Een traditionele wiskundige computer kan zeggen: "Dit is onmogelijk!" maar kan niet uitleggen waarom of wat je moet doen om het op te lossen.

2. De Oplossing: De "Onfeilbare Architect" (∆1)

De eerste helft van het systeem is ∆1. Denk aan ∆1 als een super-precieze architect die alleen werkt met een specifieke bouwmethode (genaamd FTSC).

  • Hoe het werkt: In plaats van te gissen of te zoeken naar een oplossing (zoals een mens die probeert een puzzel op te lossen), bouwt ∆1 de regels op een manier die per definitie perfect is.
  • De Analogie: Stel je voor dat je een set Lego-blokjes hebt. ∆1 pakt deze blokjes en bouwt er een structuur mee die per definitie instabiel is als je één specifiek blokje verwijdert.
  • Het resultaat: ∆1 vindt automatisch de kleinste groep regels die samen een "bom" vormen (een tegenstrijdigheid). Omdat hij dit op een vaste, wiskundige manier doet, is hij 100% zeker dat zijn conclusie klopt. Er is geen gokken bij betrokken.

3. De Vertaler: De "Charmante Gids" (LLM)

Nu hebben we een wiskundige conclusie: "Regel 3 is de bom." Maar wat betekent dat voor een dokter of een jurist?

  • Hier komt de LLM (het taalmodel) om de hoek kijken.
  • De Analogie: De architect (∆1) geeft de blauwdruk van de instabiele muur. De gids (LLM) kijkt naar die blauwdruk en zegt tegen de bewoner: "Kijk, deze muur valt om als je dit raam openzet. Het probleem is dat dit raam te groot is voor deze muur. Als je het raam kleiner maakt of de muur versterkt, is het huis veilig."
  • De LLM vertaalt de droge wiskundige "bom" naar een begrijpelijke uitleg: "Je kunt niet tegelijkertijd antibiotica voorschrijven en een virus hebben. Je moet eerst testen of het een bacterie is."

4. Het Samenwerkingsproces: "Uitleg door Bouwen"

Het mooie aan dit systeem is dat de uitleg niet na het denken komt, maar tijdens het bouwen.

  1. Invoer: Je geeft de regels in (bijv. "Als koorts, dan antibiotica").
  2. Bouwen (∆1): De architect bouwt direct de "onmogelijke situatie" op en vindt precies welk blokje de oorzaak is. Hij doet dit in een fractie van een seconde en zonder fouten.
  3. Vertalen (LLM): De gids neemt die exacte oorzaak en vertaalt het naar mensentaal, inclusief een advies: "Pas deze regel aan door een test toe te voegen."

Waarom is dit belangrijk?

In het verleden moesten we kiezen tussen:

  • AI die slim klinkt maar fouten maakt (zoals een acteur die een script voorleest zonder de plot te begrijpen).
  • Wiskunde die perfect is maar onbegrijpelijk (zoals een recept in een vreemde taal).

Met ∆1–LLM krijgen we:

  • Vertrouwen: Omdat de wiskundige kant (∆1) de basis is, weten we dat de conclusie klopt. Geen hallucinaties.
  • Begrip: Omdat de taal-kant (LLM) de uitleg geeft, weten mensen waarom het zo is en wat ze moeten doen.

Een Praktijkvoorbeeld uit het Paper

Stel je een ziekenhuis voor.

  • De Regels: "Als koorts -> antibiotica", "Als virus -> géén antibiotica", "Patiënt heeft koorts en virus".
  • ∆1 (De Architect): Zegt: "Als je deze drie regels samenzet, krijg je een onmogelijke situatie. Het 'antibiotica'-blokje is de oorzaak van de instabiliteit."
  • LLM (De Gids): Zegt: "Dit is gevaarlijk. De regels zeggen dat je antibiotica moet geven, maar de patiënt heeft een virus, dus dat is verkeerd. Advies: Voeg een regel toe: 'Geef alleen antibiotica als er een bacteriële infectie is bevestigd'."

Conclusie

Dit paper beschrijft een manier om AI te maken die niet alleen "slim" klinkt, maar ook waarheid spreekt en dat begrijpelijk maakt voor mensen. Het is als het geven van een kompas (de wiskunde) en een gids (de taal) aan iemand die door een wirwar van regels probeert te navigeren. Zo bouwen we AI-systemen die we kunnen vertrouwen, controleren en begrijpen.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →