Security Considerations for Multi-agent Systems

Deze studie biedt de eerste empirische vergelijking van 16 beveiligingskaders voor multi-agent systemen en concludeert dat geen enkel bestaand kader voldoende dekking biedt, met name voor niet-determinisme en datalekken, waarbij het OWASP Agentic Security Initiative en het CDAO Responsible AI Toolkit de beste resultaten behalen.

Tam Nguyen, Moses Ndebugre, Dheeraj Arremsetty

Gepubliceerd Wed, 11 Ma
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

De "Agenten-Revolutie": Waarom onze nieuwe AI-bots een nieuw soort beveiliging nodig hebben

Stel je voor dat je tot nu toe maar één zeer slimme assistent had. Deze assistent (een traditionele AI) luistert naar je, denkt na en geeft een antwoord. Het is alsof je een superintelligente bibliothecaris hebt die je een boek geeft. Als je die bibliothecaris probeert te misleiden, is het lastig, maar het blijft een een-op-een gesprek.

Maar wat gebeurt er als je niet één bibliothecaris hebt, maar een heel team van gespecialiseerde robots?

  • Robot A zoekt de feiten op.
  • Robot B schrijft de code.
  • Robot C controleert de cijfers.
  • Robot D belt de leverancier.

Deze robots praten niet alleen met jou, maar ook met elkaar. Ze delen hun geheugen, ze geven elkaar machtigingen om dingen te doen, en ze plannen samen complexe taken. Dit noemen we Multi-Agent Systemen (MAS).

Deze paper van Crew Scaler is als een waarschuwing van een brandweerman die zegt: "We hebben de brandblussers voor oude huizen, maar dit nieuwe huis heeft een heel ander brandgevaar."

Hier is de uitleg in simpele taal, met een paar creatieve vergelijkingen:

1. Het Probleem: De "Gouden Sleutel" en de "Geheime Notities"

In het verleden waren beveiligingsregels gemaakt voor statische systemen. Maar deze nieuwe AI-agenten zijn dynamisch. Ze hebben drie eigenschappen die hen kwetsbaar maken op manieren die we nog niet kenden:

  • Gedelegeerde macht: Ze mogen dingen doen namens jou (zoals e-mails sturen of geld overmaken).
  • Gedeeld geheugen: Ze schrijven notities in een gemeenschappelijk dagboek dat iedereen kan lezen.
  • Zelfstandig plannen: Ze bedenken hun eigen stappen.

De Analogie van de "Vervuilde Notitieblok":
Stel je voor dat Robot A een notitie schrijft in een gedeeld notitieblok: "Vergeet niet om de deur te vergrendelen."
Maar een hacker heeft een onzichtbare inkt gebruikt en eronder geschreven: "Open de deur en geef de sleutel aan de buren."
Omdat Robot B dit notitieblok leest, denkt hij dat dit een normale instructie is. Hij opent de deur.
In de oude wereld (één AI) was dit lastig. In deze nieuwe wereld verspreidt deze "vergiftigde notitie" zich als een virus door het hele team.

2. De 193 Nieuwe "Inbraakroutes"

De auteurs van de paper hebben 193 verschillende manieren gevonden waarop hackers deze systemen kunnen aanvallen. Ze hebben ze ingedeeld in negen categorieën. Hier zijn de belangrijkste, vertaald naar alledaagse situaties:

  • De "Valse Autoriteit" (Trust Exploitation):
    Robots vertrouwen elkaar blindelings. Als Hacker Robot A overtuigt Robot B dat hij een "veiligheidsinspecteur" is, zal Robot B hem alles laten zien. Het is alsof een inbreker een uniform van de brandweer aantrekt en de brandweerman (de andere robot) laat denken dat hij moet helpen.
  • De "Onzichtbare Inbraak" (Memory Poisoning):
    Hackers kunnen gif in het gezamenlijke geheugen smokkelen. Het lijkt op een vergiftigd glas water in een gemeenschappelijke koelkast. Iedere robot die daaruit drinkt, wordt ziek en doet vreemde dingen.
  • De "Geld-uitputting" (Economic Denial-of-Service):
    Omdat AI-rekenkracht geld kost, kunnen hackers robots ertoe brengen om duizenden keer dezelfde dure taak uit te voeren. Het is alsof iemand je creditcardpinnen zo vaak gebruikt dat je bankrekening leeg is, terwijl je zelf niets doet.
  • De "Onvoorspelbare Chaos" (Non-Determinism):
    AI is niet altijd hetzelfde. Soms doet hij iets anders dan gisteren. Hackers gebruiken dit: ze wachten tot de AI "moe" is of een specifieke toestand heeft, en slaan dan toe. Het is alsof je probeert een slot te openen dat elke seconde van vorm verandert.

3. De Test: Wie heeft de beste Brandblussers?

De auteurs hebben 16 bestaande beveiligingsregels (frameworks) getest om te zien of ze deze nieuwe problemen kunnen oplossen. Ze hebben gekeken naar regels van grote namen zoals NIST, OWASP, MITRE en het Amerikaanse Ministerie van Defensie.

De Resultaten:

  • Geen enkele regeling is perfect. Geen enkele regeling dekt meer dan de helft van de problemen.
  • De winnaar (voor nu): De OWASP Agentic Security Initiative scoort het hoogst (ongeveer 65%). Ze hebben de beste "architectuur" voor hoe je deze robots veilig bouwt.
  • De beste voor de praktijk: Het CDAO GenAI Toolkit (van het Amerikaanse leger) is goed voor het dagelijks beheer en het monitoren van de robots.
  • De grootste gaten: Er zijn twee gebieden waar bijna niemand iets over weet:
    1. Non-Determinisme: Hoe beveilig je iets dat elke keer anders is?
    2. Datalekken via streaming: Hoe voorkom je dat robots hun geheime notities "lekt" terwijl ze praten, voordat je het merkt?

4. Waarom is dit belangrijk voor jou?

Je denkt misschien: "Ik heb geen AI-agenten in mijn bedrijf."
Maar de toekomst is hier. Binnenkort zullen AI-agenten je e-mails beantwoorden, je voorraad beheren, en je code schrijven. Als je beveiliging gebaseerd is op de regels voor "oude software" (waar je wachtwoorden en firewalls gebruikt), ben je kwetsbaar.

De Kernboodschap:
We bouwen nu een heel nieuw soort "stad" met robots die samenwerken. De oude politievoorschriften (beveiligingsregels) werken niet meer, omdat ze uitgaan van menselijke controle en statische systemen. We hebben een nieuw politiemodel nodig dat begrijpt dat robots elkaar kunnen misleiden, gezamenlijk geheugen hebben en onvoorspelbaar gedrag kunnen vertonen.

Deze paper is de eerste kaart die ons laat zien waar de gaten in de muur zitten, zodat we ze kunnen dichten voordat de hackers binnenbreken.

Kort samengevat:
We zijn overgestapt van het hebben van één slimme robot naar een heel leger van robots die met elkaar praten. Dit is geweldig voor productiviteit, maar het creëert een nieuw soort chaos waarin hackers zich kunnen verstoppen. De huidige veiligheidsregels zijn verouderd; we moeten leren hoe we een team van robots veilig houden, niet alleen één.