OpenKedge: Governing Agentic Mutation with Execution-Bound Safety and Evidence Chains

Dit paper introduceert OpenKedge, een protocol dat autonome AI-agenten veilig maakt door mutaties te reguleren via goedgekeurde intenties, strikte uitvoeringscontracten en cryptografische bewijsketens die een verifieerbare en auditabele lijn van intentie tot uitvoering garanderen.

Jun He, Deying Yu

Gepubliceerd 2026-04-13
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

🚦 OpenKedge: De Verkeersregelaar voor AI-Robots

Stel je voor dat je een stad hebt vol met zelfrijdende auto's (de AI-agenten). Deze auto's zijn slim, maar ze kunnen ook fouten maken, hallucineren of verkeerde beslissingen nemen.

In de huidige wereld van software werken we alsof deze auto's direct de weg op mogen rijden zonder dat iemand kijkt of de weg veilig is. Ze sturen een signaal naar een verkeerslicht ("Ik ga door!"), en het licht doet wat ze zeggen. Als de auto per ongeluk denkt dat er geen auto's aankomen, terwijl er juist een trein passeert, is het ongeluk niet meer te voorkomen. Dit is het probleem met de huidige API-architectuur: het vertrouwt blindelings op de "bestuurder".

OpenKedge is een nieuw systeem dat dit volledig verandert. Het introduceert een verkeersregelaar die niet alleen kijkt of de auto een rijbewijs heeft, maar ook waarom hij wil rijden, of het op dat moment veilig is, en hoe hij precies mag rijden.

Hier zijn de drie belangrijkste onderdelen van dit nieuwe systeem, uitgelegd met alledaagse voorbeelden:

1. Geen Direct Bevel, Maar een "Verzoek" (Intentie)

In het oude systeem schreeuwt een robot: "Doe dit!" en het systeem doet het.
Bij OpenKedge moet de robot eerst een officieel verzoek indienen.

  • De Metafoor: Stel je voor dat je een bouwvakker bent die een muur wil slopen. In het oude systeem mag hij gewoon de sloophamer pakken en slaan. Bij OpenKedge moet hij eerst een formulier invullen: "Ik wil deze muur slopen om ruimte te maken voor een raam."
  • Het Voordeel: Het systeem kijkt eerst of dit verzoek logisch is. Is er echt een raam nodig? Is de muur wel veilig om te slopen? Als de robot hallucineert en denkt dat er een raam moet komen, terwijl er juist een steunbalk zit, wordt het verzoek afgekeurd voordat er ook maar één steen wordt verpletterd.

2. De "Tijdelijke Pas" (Execution Contracts)

Zelfs als het verzoek wordt goedgekeurd, krijgt de robot geen volledige sleutel tot de stad.

  • De Metafoor: Stel je voor dat je een sleutel krijgt om een huis te betreden. In het oude systeem heb je een hoofdsleutel die alle deuren in het hele gebouw opent, ook die van de buren. Als je per ongeluk de verkeerde deur opent, is het huis van de buren kapot.
  • Bij OpenKedge krijg je een tijdelijke, beperkte pas (een task-oriented identity).
    • Je mag alleen de specifieke deur openen die op je formulier stond.
    • Je mag alleen 5 minuten binnen zijn.
    • Als je probeert een andere deur te openen of langer blijft, gaat de pas direct plat.
  • Het Voordeel: Zelfs als de robot gek wordt en probeert alles te vernietigen, kan hij fysiek niet verder dan wat op zijn pas staat. De schade is ingeperkt tot één klein kamertje in plaats van het hele gebouw.

3. De "Onuitwisbare Fotoreeks" (IEEC)

Elke stap die wordt gezet, wordt vastgelegd in een onuitwisbare keten van bewijs.

  • De Metafoor: Stel je voor dat elke beslissing in de stad wordt gefilmd met een camera die niet kan worden gemanipuleerd.
    • Wie heeft het verzoek gedaan?
    • Waarom dachten ze dat het veilig was?
    • Welke regels werden toegepast?
    • Wat is er precies gebeurd?
  • Dit heet de Intent-to-Execution Evidence Chain (IEEC). Het is alsof je niet alleen een foto maakt van het ongeluk, maar ook de hele film terugkijkt om te zien: "Ah, de robot dacht dat het veilig was, maar de verkeersregelaar zag de trein niet."
  • Het Voordeel: Je kunt elk incident perfect reconstrueren. Je weet altijd precies waarom iets is gebeurd en wie er verantwoordelijk was.

Waarom is dit zo belangrijk?

Vroeger dachten we dat we AI-agenten veilig konden maken door ze slimmer te maken (beter redeneren). Maar dit paper zegt: "Nee, dat is niet genoeg." Zelfs de slimste robot kan hallucineren of in de war raken.

OpenKedge zegt: "Wees niet bang voor de robot; maak het systeem zo dat de robot nooit echt schade kan aanrichten, zelfs niet als hij gek wordt."

Het verschuift de focus van:

  • "Hoe maken we de robot slimmer?"
    naar:
  • "Hoe bouwen we een systeem dat fouten van de robot opvangt voordat ze gebeuren?"

Samenvatting in één zin

OpenKedge is een veiligheidsnet voor AI-agenten dat zorgt dat elke actie eerst wordt gecontroleerd op veiligheid, beperkt wordt tot een klein en tijdelijk gebied, en volledig wordt vastgelegd in een onuitwisbaar dagboek, zodat we nooit meer blindelings vertrouwen op wat robots zeggen.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →