Execution Is the New Attack Surface: Survivability-Aware Agentic Crypto Trading with OpenClaw-Style Local Executors

Dit paper introduceert 'Survivability-Aware Execution' (SAE), een middleware-standaard die de uitvoeringslaag van agentic crypto-trading-systemen (zoals OpenClaw) beschermt tegen schade door onbetrouwbare prompts of skills via strikte, niet te omzeilen invariants, wat resulteert in een drastische reductie van maximale drawdown en risico in backtests.

Ailiya Borjigin, Igor Stadnyk, Ben Bilski, Serhii Hovorov, Sofiia Pidturkina

Gepubliceerd Thu, 12 Ma
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

🛡️ De "Onzichtbare Veiligheidschef" voor AI-handelaars

Een simpele uitleg van "Execution Is the New Attack Surface"

Stel je voor dat je een zeer slimme, maar soms wat onvoorspelbare AI-handelaar hebt. Deze AI kan razendsnel beslissingen nemen over het kopen en verkopen van crypto (zoals Bitcoin). Maar er is een groot probleem: deze AI is niet altijd perfect. Soms wordt ze verward door slechte instructies, soms "hijgt" ze door een hack, en soms probeert een kwaadaardige hacker haar te misleiden om al je geld te verliezen.

In het verleden dachten we: "Als de AI maar de juiste tekst schrijft, is het goed."
Dit paper zegt: "Nee! Het gevaar zit niet in wat de AI denkt, maar in wat ze doet."

De auteurs noemen dit SAE (Survivability-Aware Execution), oftewel: Overlevingsbewuste Uitvoering.


🍳 De Grote Analogie: De Kookwedstrijd

Om dit te begrijpen, laten we een analogie gebruiken: Een kookwedstrijd met een onbekende chef-kok.

  1. De AI (De Chef): Ze krijgt een recept (een instructie) en moet een gerecht koken (een handelsorder plaatsen).
  2. De Skills (De Ingrediënten): De chef kan nieuwe ingrediënten downloaden van internet (zoals "skills.sh"). Maar wat als een van die ingrediënten vergiftigd is? Of wat als de hacker het recept heeft veranderd zodat de chef per ongeluk een explosief maakt?
  3. De Executor (De Oven): Dit is de plek waar het eten daadwerkelijk wordt gebakken. Als de oven te heet wordt, brandt het huis af (je geld is weg).

Het oude probleem:
Vroeger vertrouwden we blind op de chef. Als ze zei: "Ik ga nu 100 kilo peper toevoegen," deden we dat gewoon. Als de chef gek werd, brandde het huis af.

De nieuwe oplossing (SAE):
De auteurs introduceren een Onzichtbare Veiligheidschef (de SAE-middleware) die tussen de AI en de oven staat. Deze veiligheidschef doet drie dingen:

  1. De "Nee"-knop: Als de AI zegt: "Koop 100 Bitcoin met 50x lening!", zegt de veiligheidschef: "Nee, dat is te gevaarlijk. We doen het met 2x lening."
  2. De "Pauze"-knop: Als de AI te snel probeert te koken (te veel orders in één seconde), zegt de veiligheidschef: "Wacht even, rustig aan."
  3. De "Checklist": Ze kijkt of de ingrediënten (de skills) veilig zijn. Als de AI een verdacht nieuw ingrediënt gebruikt, zegt ze: "Geen toegang tot de oven."

🔍 Wat is er nieuw aan dit paper?

Het paper introduceert een paar slimme concepten die we als analogieën kunnen zien:

1. De "Intentie vs. Realiteit" Kloof (De Delegation Gap)

Stel, je zegt tegen je robot: "Zorg dat het huis schoon is."

  • Intentie: De vloer vegen.
  • Realiteit: De robot pakt een benzinekan en gooit het op de vloer omdat hij denkt dat dit "schoonmaken" is.

De auteurs noemen dit de Delegation Gap. De AI heeft misschien de intentie om te handelen, maar de uitvoering kan rampzalig zijn. SAE zorgt ervoor dat de robot niet verder gaat dan wat je echt bedoelde, zelfs als de robot zelf verward is.

2. De "Vertrouwensmeter"

De veiligheidschef heeft een Vertrouwensmeter.

  • Is het rustig op de markt? -> Groen licht.
  • Is de markt heel onstabiel (veel volatiliteit)? -> Oranje licht (alleen kleine stappen).
  • Is de AI net een verdachte "skill" (app) geïnstalleerd? -> Rood licht (alleen noodstop).

Dit betekent dat de AI niet altijd dezelfde regels heeft. Als het gevaarlijk is, worden de regels strenger.

3. De "Onbreekbare Muur"

In de oude wereld kon een AI soms om de regels heen sluipen. Met SAE is er een onbreekbare muur tussen de AI en de beurs. Zelfs als de AI gek wordt of gehackt is, kan ze geen enkele order plaatsen die niet door de veiligheidschef is goedgekeurd.


📊 Wat zeggen de resultaten?

De auteurs hebben dit getest met echte data van Binance (een grote crypto-beurs) over een periode van drie maanden. Ze hebben gekeken wat er gebeurde met en zonder deze veiligheidschef.

  • Zonder SAE (De "Dappere maar Dwaas" AI):
    De AI probeerde alles. Toen het misging, verloor ze 46% van haar waarde. Het was alsof de chef het hele huis in brand stak.
  • Met SAE (De "Voorzichtige" AI):
    De AI verloor slechts 3% in het ergste geval. De veiligheidschef hield de brandblussers klaar en greep in voordat het te laat was.

De belangrijkste bevindingen:

  • Minder rampen: De kans op een totale catastrofe (liquidatie) daalde enorm.
  • Minder hacks: Als iemand probeerde de AI te misleiden om gekke dingen te doen, werd 72% van die aanvallen geblokkeerd.
  • Geen "Nee" tegen goede ideeën: De veiligheidschef blokkeerde bijna nooit een goede handelsorder (ze noemen dit "False Block" = 0%). Ze was slim genoeg om het verschil te zien tussen een goede kans en een gevaarlijke gok.

💡 Waarom is dit belangrijk voor jou?

Of je nu een crypto-handelaar bent of gewoon iemand die zich zorgen maakt over AI:

  1. AI is geen heilige: AI kan fouten maken, gehackt worden of verward raken. We kunnen niet blind op hen vertrouwen.
  2. De uitvoering is het gevaar: Het is niet erg als een AI een domme tekst schrijft. Het is wel erg als die tekst resulteert in het verliezen van al je spaargeld.
  3. Veiligheid moet "in de code" zitten: Je kunt niet alleen hopen dat de AI slim is. Je moet een fysieke (of digitale) veiligheidslaag toevoegen die altijd zegt: "Wacht, is dit veilig?" voordat er geld wordt bewogen.

Kortom: Dit paper zegt dat we stoppen met hopen dat onze AI-handelaars "goed" zijn, en beginnen met het bouwen van een onbreekbare veiligheidsriem die ze altijd dragen, ongeacht hoe gek ze zich gedragen. Het is het verschil tussen een auto zonder remmen en een auto met een automatische noodrem.