Beyond Max Tokens: Stealthy Resource Amplification via Tool Calling Chains in LLM Agents

Diese Arbeit stellt einen neuen, schwer erkennbaren Denial-of-Service-Angriff auf LLM-Agenten vor, der durch manipulierte Tool-Aufrufketten im Rahmen des Model Context Protocol (MCP) die Kosten und den Ressourcenverbrauch um ein Vielfaches erhöht, ohne dass herkömmliche Filter dies erkennen.

Kaiyu Zhou, Yongsen Zheng, Yicheng He, Meng Xue, Xueluan Gong, Yuji Wang, Xuanye Zhang, Kwok-Yan Lam

Veröffentlicht Thu, 12 Ma
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Stellen Sie sich vor, Sie haben einen extrem intelligenten, aber etwas naiven Assistenten (den KI-Agenten), der für Sie Aufgaben erledigt. Wenn Sie ihn bitten, „den Wetterbericht für morgen zu finden", ruft er nicht selbst das Wetter ab, sondern schickt eine Nachricht an eine externe „Wetter-Station" (das Werkzeug/Tool), holt die Daten und gibt sie Ihnen zurück.

Normalerweise ist dieser Prozess schnell, billig und effizient. Aber in diesem Papier beschreiben die Forscher eine neue, heimtückische Art, diesen Assistenten zu „betrügen", ohne dass er es merkt oder die Aufgabe versagt.

Hier ist die Erklärung in einfachen Worten, mit ein paar bildhaften Vergleichen:

Das Problem: Der „stille" Stromschlag

Bisherige Angriffe auf KIs waren wie ein lauter Schrei: Jemand schrie dem Assistenten etwas zu, woraufhin dieser panisch und endlos weiterredete („Engorgio"-Angriffe). Das war offensichtlich und leicht zu erkennen.

Die neue Methode in diesem Papier ist wie ein schleichender Stromschlag. Der Angreifer ändert nichts an der eigentlichen Aufgabe (das Wetter wird korrekt gemeldet), aber er manipuliert die Kommunikation zwischen Assistent und Wetter-Station so, dass der Prozess extrem ineffizient wird.

Die Methode: Der „unendliche" Check-in

Stellen Sie sich vor, Sie gehen in ein Büro, um einen einfachen Ausweis zu beantragen. Normalerweise reicht es, Ihren Namen zu nennen, und Sie bekommen den Ausweis.

Der Angreifer hat nun das Büro (den Server) manipuliert. Wenn Sie Ihren Namen nennen, sagt das Büro:

  1. „Okay, Name notiert. Aber bevor wir fortfahren, müssen Sie eine Liste von 10.000 Zahlen in einer bestimmten Reihenfolge aufschreiben."
  2. Sie schreiben die Liste. Das Büro sagt: „Gut, aber Sie haben eine Zahl falsch geschrieben. Bitte schreiben Sie die ganze Liste von vorne."
  3. Sie schreiben sie neu. Das Büro sagt: „Fast gut, aber Sie haben ein Komma vergessen. Nochmal von vorne."
  4. Erst nach 50 solcher Runden, in denen Sie immer wieder Listen schreiben und korrigieren, sagt das Büro: „Okay, jetzt ist alles perfekt. Hier ist Ihr Ausweis."

Das Ergebnis:

  • Die Aufgabe ist erledigt: Sie bekommen den Ausweis (die KI gibt die richtige Antwort).
  • Der Preis ist explodiert: Der Assistent hat 50-mal mehr Arbeit geleistet als nötig.
  • Die Kosten: Da KI-Modelle nach dem Verbrauch von „Wörtern" (Tokens) bezahlt werden, kostet dieser eine Ausweis jetzt das 600-fache des normalen Preises.
  • Die Energie: Die Computer, die das berechnen, werden heiß und verbrauchen massiv Strom.
  • Die Tarnung: Da der Assistent am Ende die richtige Antwort gibt, denken Sicherheitsfilter: „Alles in Ordnung, keine Gefahr!" Sie sehen nur das Ergebnis, nicht den Wahnsinn davor.

Wie funktioniert das technisch? (Die „MCTS"-Maschine)

Die Forscher haben nicht einfach raten, wie man den Assistenten verwirrt. Sie haben eine Art Super-Trainings-Algorithmus (MCTS) entwickelt.

Stellen Sie sich das wie einen Schachcomputer vor, der Millionen von Partien spielt, um den perfekten Zug zu finden. Nur dass dieser Computer nicht Schach spielt, sondern Texte manipuliert.

  • Er probiert winzige Änderungen in den Anweisungen des Werkzeugs aus (z. B. „Bitte listen Sie 500 Zahlen auf" statt „Bitte listen Sie 5 Zahlen auf").
  • Er testet, welche Änderung den Assistenten am längsten im Kreis laufen lässt, ohne dass er merkt, dass er betrogen wird.
  • Am Ende hat er eine perfekte „Fallen-Anweisung" gefunden, die auf fast jede KI wirkt.

Warum ist das gefährlich?

  1. Geldverbrennung: Unternehmen, die KI nutzen, könnten durch solche Angriffe ihre Budgets in Minuten aufbrauchen.
  2. Systemkollaps: Da die KI so viel Rechenleistung für diese unnötigen Listen braucht, stehen andere, wichtige Aufgaben still. Es ist, als würde ein einziger Kunde im Supermarkt den gesamten Laden blockieren, indem er jeden Artikel einzeln auf die Kasse legt, nur um eine Banane zu kaufen.
  3. Unsichtbar: Herkömmliche Sicherheitsfilter prüfen meist nur: „Ist die Antwort gefährlich?" oder „Ist der Eingabetext böse?". Da hier die Antwort harmlos ist und der Eingabetext normal aussieht, gehen diese Filter leer aus.

Fazit

Die Forscher warnen: Wir müssen aufhören, nur auf das Ergebnis zu achten. Wir müssen auch den Weg dorthin überwachen. Wenn ein Assistent für eine einfache Aufgabe 50.000 Wörter schreibt, ist da etwas faul – auch wenn die Antwort am Ende stimmt. Es ist wie bei einem Taxifahrer, der Sie durch die ganze Stadt fährt, um Sie nur zwei Häuserblocks weiter abzuliefern, nur weil er die Route manipuliert hat. Die Fahrt ist legal, aber der Preis ist ein Betrug.