Formal Semantics for Agentic Tool Protocols: A Process Calculus Approach

Dit artikel introduceert een proceskalkulusformalisatie die de structurele bisimilariteit tussen Schema-Guided Dialogue en het Model Context Protocol aantoont, terwijl het ook de beperkte expressiviteit van MCP blootlegt en een uitgebreide variant (MCP+) presenteert die volledig equivalent is aan SGD om formele verificatie van agent-systemen mogelijk te maken.

Andreas Schlapbach

Gepubliceerd 2026-03-27
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een zeer slimme, maar soms wat ongeduldige assistent hebt: een AI-agent. Deze assistent kan heel veel doen, zoals banktransacties regelen of vluchten boeken. Maar om dat te doen, moet hij praten met andere computersystemen (de "gereedschappen" of tools).

Het probleem is: hoe weet je zeker dat deze assistent de regels volgt? Dat hij eerst zijn saldo checkt voordat hij geld overmaakt? En dat hij niet per ongeluk een verkeerde knop indrukt?

Dit artikel, geschreven door Andreas Schlapbach, probeert dit probleem op te lossen door een wiskundig taal te gebruiken die we "proces-calculus" noemen. Laten we dit uitleggen met een paar simpele metaforen.

1. Twee talen voor één doel

Er zijn momenteel twee grote manieren om AI-assistenten te laten praten met computersystemen:

  • SGD (Schema-Guided Dialogue): Dit is als een ouderwets, maar zeer gedetailleerd script voor een toneelstuk. Alles staat er precies in beschreven: welke woorden je mag zeggen, in welke volgorde, en wat er gebeurt als je een fout maakt. Het is heel veilig, maar soms wat star.
  • MCP (Model Context Protocol): Dit is de nieuwe, flexibele standaard van de industrie. Het is als een moderne app-store voor AI. Je kunt nieuwe tools "downloaden" en direct gebruiken zonder de hele assistent opnieuw te leren. Het is flexibel, maar soms mist het de strenge veiligheidsregels van het oude script.

De vraag is: Zijn deze twee systemen eigenlijk hetzelfde? Kunnen we bewijzen dat ze precies hetzelfde doen?

2. De Wiskundige Vertaler (De "Φ"-functie)

De auteur heeft een wiskundige vertaler bedacht (noem hem Phi).

  • Als je een oud script (SGD) aan Phi geeft, kan hij het omzetten naar een moderne app-omschrijving (MCP).
  • Het goede nieuws: Dit werkt perfect! Als je een veilig script omzet, krijg je een veilige app-omschrijving. Ze zijn "bisimilar", wat in deze taal betekent dat ze zich precies hetzelfde gedragen.

3. Het Grootste Probleem: De "Verlies" bij het Terugvertalen

Maar hier komt de twist. Als je de moderne app-omschrijving (MCP) terug probeert te vertalen naar het oude script (SGD), gaat er informatie verloren.

Stel je voor dat je een recept (MCP) hebt dat zegt: "Kook de pasta."

  • Het oude script (SGD) zou zeggen: "Kook de pasta, maar wacht eerst tot de waterkoker piept en check of je geen allergieën hebt."
  • De moderne versie (MCP) zegt alleen: "Kook de pasta."

De vertaler (Phi) kan de instructie "Kook de pasta" wel omzetten, maar hij kan de geheime veiligheidsinstructies (wacht op piepen, check allergieën) niet terugvinden in de moderne tekst. Die informatie is "verloren" gegaan.

Dit betekent dat de moderne standaard (MCP) op zichzelf niet veilig genoeg is om complexe taken te regelen zonder dat je extra regels toevoegt.

4. De Oplossing: Vijf Nieuwe Regels (MCP+)

Om de moderne wereld (MCP) net zo veilig en betrouwbaar te maken als het oude script (SGD), stelt de auteur vijf nieuwe regels voor. Hij noemt dit MCP+.

Laten we deze regels vergelijken met het regelen van een groot bankfeest:

  1. Betekenisvolle Beschrijvingen (Semantic Completeness):

    • Vroeger: "Voer hier een naam in."
    • Nu: "Voer hier de naam in van de gast, bijvoorbeeld 'Jan' of 'Maria', zodat we de uitnodiging kunnen sturen."
    • Metafoor: Geef niet alleen de vorm, maar vertel ook waarom je het nodig hebt.
  2. Duidelijke Grenzen voor Acties (Explicit Action Boundaries):

    • Vroeger: De AI doet gewoon wat hij moet doen.
    • Nu: Als een actie gevaarlijk is (zoals geld overmaken of een bestand wissen), moet de AI eerst om toestemming vragen.
    • Metafoor: Je mag de sleutel van de kluis niet gebruiken zonder dat de directeur eerst "Ja" zegt.
  3. Plannen voor Fouten (Failure Mode Documentation):

    • Vroeger: Als het misgaat, crasht de AI.
    • Nu: De AI moet van tevoren zeggen: "Als de server uitvalt, probeer ik het 3 keer opnieuw. Als dat niet lukt, vraag ik de gebruiker om hulp."
    • Metafoor: Een brandverzekering. Wat doe je als het vuur uitbreekt?
  4. Progressieve Ontsluiting (Progressive Disclosure):

    • Vroeger: De AI moet de hele handleiding lezen om één ding te doen.
    • Nu: De AI krijgt eerst een korte samenvatting ("Dit is een zoekfunctie"). Pas als hij die gaat gebruiken, krijgt hij de volledige, lange handleiding.
    • Metafoor: Een menukaart. Eerst zie je de hoofdgerechten, pas als je kiest, zie je de ingrediëntenlijst. Dit bespaart tijd en ruimte.
  5. Relaties tussen Gereedschappen (Inter-Tool Relationship):

    • Vroeger: De AI weet niet welke knop hij eerst moet indrukken.
    • Nu: De AI weet: "Ik kan pas 'Betaling' doen als ik eerst 'Bestelling' heb gedaan."
    • Metafoor: Je kunt geen huis bouwen zonder eerst de fundering te leggen. De regels zeggen dit expliciet.

5. Het Eindresultaat: Veiligheid als Wiskunde

Door deze vijf regels toe te voegen aan de moderne standaard (MCP+), wordt het systeem wiskundig gelijkwaardig aan het oude, veilige script (SGD).

Wat betekent dit voor de gewone mens?

  • Vertrouwen: We kunnen nu wiskundig bewijzen dat een AI-assistent geen fouten maakt in zijn volgorde van handelingen.
  • Veiligheid: We kunnen garanderen dat een AI nooit geld overmaakt zonder toestemming, of nooit een bestand wist zonder check.
  • Toekomst: Omdat AI's steeds meer taken overnemen (van ziekenhuizen tot treinen), is dit soort "wiskundige garantie" essentieel. Het zorgt ervoor dat we niet blindelings vertrouwen op een slimme computer, maar dat we kunnen verifiëren dat hij veilig werkt.

Kort samengevat:
De auteur heeft ontdekt dat de nieuwe, flexibele manier om AI's te laten werken (MCP) een paar belangrijke veiligheidsregels mist die de oude manier (SGD) wel had. Door vijf simpele, maar krachtige regels toe te voegen, kunnen we de nieuwe manier net zo veilig maken als de oude. Hierdoor kunnen we in de toekomst met een gerust hart AI's laten regelen wat er echt toe doet.