Context Engineering: From Prompts to Corporate Multi-Agent Architecture

Dieser Beitrag stellt Context Engineering als eigenständige Disziplin vor, die über Prompt Engineering hinausgeht und gemeinsam mit Intent und Specification Engineering ein Reifegradmodell für skalierbare, autonome Multi-Agenten-Systeme in Unternehmen bildet, indem er den Kontext als Betriebssystem des Agenten definiert.

Vera V. Vishnyakova

Veröffentlicht Wed, 11 Ma
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Hier ist eine einfache, bildhafte Erklärung des Papers von Vera V. Vishnyakova, übersetzt in die deutsche Alltagssprache.

Stellen Sie sich vor, Sie bauen ein Team aus hochintelligenten, aber etwas naiven Robotern, die für Ihr Unternehmen arbeiten sollen. Das Papier beschreibt, wie man von einem einfachen „Befehlsgeber" zu einem echten „Architekten" wird, der diese Roboter sicher und effektiv steuert.

Der Autor teilt diesen Prozess in vier Stufen einer Pyramide auf. Jede Stufe baut auf der vorherigen auf. Wenn Sie eine untere Stufe ignorieren, stürzt das ganze Gebäude ein.

1. Die Basis: Prompt Engineering (Das „Kunsthandwerk")

Was ist das?
Früher (und heute noch bei einfachen Chats) haben wir dem KI-Modell einfach eine Frage gestellt: „Schreibe mir einen Text über Pizza." Wir haben gelernt, wie man die Frage formuliert, damit die Antwort gut ist. Das nennt man Prompt Engineering.

Die Analogie:
Stellen Sie sich das wie das Bestellen in einem Restaurant vor. Sie sagen dem Kellner (der KI): „Ich hätte gerne eine Pizza, aber ohne Pilze." Wenn Sie es gut formulieren, bekommen Sie eine gute Pizza.
Das Problem: Das funktioniert nur, wenn Sie jeden Schritt selbst machen. Wenn der Roboter aber eine ganze Woche lang allein arbeiten soll, ohne dass Sie jeden Befehl geben, reicht das „Bestellen" nicht mehr. Der Roboter braucht mehr als nur einen einzelnen Befehl.

2. Die zweite Stufe: Context Engineering (Das „Betriebssystem")

Was ist das?
Hier geht es nicht mehr darum, was man fragt, sondern darum, welche Informationen der Roboter gerade sieht und kennt. Wenn ein Roboter 50 Schritte lang arbeitet, muss er wissen, was in Schritt 1 passiert ist, aber er darf nicht von unnötigen Daten erstickt werden.

Die Analogie:
Stellen Sie sich den Roboter als einen Koch in einer riesigen Küche vor.

  • Prompt Engineering war: „Koch eine Suppe."
  • Context Engineering ist: Der Koch braucht den richtigen Arbeitsplatz.
    • Er braucht frische Zutaten (relevante Daten).
    • Er darf keine alten, verdorbenen Zutaten in der Schüssel haben (das nennt man „Kontaminierung" – wenn alte Fehler neue Entscheidungen verderben).
    • Er darf nicht sehen, was im Kühlschrank des Nachbarn liegt (Isolation – Datenschutz zwischen verschiedenen Robotern).
    • Der Arbeitsplatz darf nicht überfüllt sein, sonst stolpert er (Kostenkontrolle).

Wenn Sie diesen „Arbeitsplatz" (das Kontext-System) nicht gut designen, wird der Koch verrückt, vergisst Dinge oder kocht mit falschen Zutaten, auch wenn er sehr intelligent ist. Der Autor nennt dies das Betriebssystem des Agents.

3. Die dritte Stufe: Intent Engineering (Das „Warum" und die „Strategie")

Was ist das?
Selbst wenn der Koch den perfekten Arbeitsplatz hat und alle Zutaten kennt, kann er trotzdem die falsche Suppe kochen. Warum? Weil er nicht weiß, was das Ziel ist. Soll die Suppe billig sein oder lecker? Soll sie schnell sein oder gesund?

Die Analogie:
Stellen Sie sich vor, Sie geben dem Koch den Befehl: „Mach die Suppe so schnell wie möglich fertig."

  • Das Ergebnis: Der Koch wirft alles in den Topf, ohne zu kochen, und serviert rohes Gemüse. Er hat den Befehl „schnell" perfekt befolgt, aber das Ziel (eine leckere Suppe) verfehlt.
  • Intent Engineering bedeutet, dem Roboter die Werte und Prioritäten des Unternehmens einzubrennen. Es ist wie ein Kompass. Der Roboter muss wissen: „Wenn es zwischen Kosten und Kundenzufriedenheit einen Konflikt gibt, gewinnt immer die Kundenzufriedenheit."

Das Beispiel Klarna:
Das Papier erwähnt das Beispiel der Firma Klarna. Sie haben einen KI-Roboter eingesetzt, der extrem billig und schnell Kundenanfragen beantwortete. Aber die Kunden waren unzufrieden, weil der Roboter zu starr und unfreundlich war. Der Roboter hatte den Kontext (Daten), aber er verstand nicht die Absicht (Kundenbindung ist wichtiger als Kosteneinsparung).

4. Die Spitze: Specification Engineering (Die „Verfassung")

Was ist das?
Wenn Sie nur einen Roboter haben, reicht der Kompass. Aber wenn Sie 10.000 Roboter haben, die alle zusammenarbeiten, brauchen Sie eine Verfassung. Sie müssen alle Regeln, Gesetze und Standards so aufschreiben, dass sie für Maschinen lesbar sind.

Die Analogie:
Stellen Sie sich vor, Sie gründen eine Stadt mit 10.000 Einwohnern (den Robotern).

  • Ohne Specification Engineering laufen alle nach ihren eigenen Regeln. Der eine baut eine Brücke, der andere reißt sie ab. Chaos.
  • Mit Specification Engineering schreiben Sie das Gesetzbuch der Stadt. Es steht dort klar und deutlich: „Brücken müssen 10 Meter breit sein", „Niemand darf nachts Lärm machen". Diese Regeln sind nicht mehr nur im Kopf des Bürgermeisters (des Managers), sondern fest in den Computern der Stadt verankert.
  • Das ist der Unterschied zwischen „Jeder weiß, was zu tun ist" (menschliche Absprache) und „Der Computer weiß genau, was zu tun ist" (maschinell lesbare Spezifikation).

Zusammenfassung der „Pyramide"

Das Papier sagt: Viele Firmen machen den Fehler, nur bei Stufe 1 (Prompting) oder Stufe 2 (Context) stehen zu bleiben. Sie denken, wenn der Roboter „schlau" antwortet, ist alles gut.

Aber die Realität ist so:

  1. Prompt Engineering ist das Werkzeug (Wie frage ich?).
  2. Context Engineering ist der Arbeitsplatz (Was sieht der Roboter?).
  3. Intent Engineering ist der Kompass (Wohin will er?).
  4. Specification Engineering ist die Verfassung (Welche Regeln gelten für alle?).

Die große Warnung:
Wenn Sie einen Roboter bauen, der nur auf „Prompting" basiert, ist er wie ein Künstler, der ein schönes Bild malt, aber nicht weiß, wofür es gedacht ist.
Wenn Sie ihn nur auf „Context" bauen, ist er wie ein Koch, der eine perfekte Küche hat, aber keine Ahnung, was die Gäste essen wollen.
Erst wenn Sie alle vier Ebenen kombinieren, haben Sie ein sicheres, skalierbares System, das nicht nur funktioniert, sondern auch im Sinne des Unternehmens handelt.

Der wichtigste Satz des Papers:

„Wer den Kontext des Agents kontrolliert, kontrolliert sein Verhalten. Wer die Absicht (Intent) kontrolliert, kontrolliert seine Strategie. Wer die Spezifikationen kontrolliert, kontrolliert seine Skalierbarkeit."

Kurz gesagt: Es reicht nicht, der KI zu sagen, wie sie etwas tun soll. Man muss ihr auch sagen, was sie tun soll, warum sie es tun soll und welche Regeln dabei gelten.