Why Do AI Agents Systematically Fail at Cloud Root Cause Analysis?

Diese Studie analysiert systematisch die Ursachen für das Versagen von LLM-basierten Agenten bei der Cloud-Root-Cause-Analyse, identifiziert architekturbedingte Fallstricke wie Halluzinationen und unvollständige Exploration, und zeigt, dass Prompt-Engineering allein nicht ausreicht, während verbesserte Kommunikationsprotokolle die Fehlerquote signifikant senken können.

Taeyoon Kim, Woohyeok Park, Hoyeong Yun, Kyungyong Lee

Veröffentlicht 2026-03-05
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Stellen Sie sich vor, Sie sind der Chef eines riesigen, hochkomplexen Hotels mit tausenden von Zimmern, Restaurants und Aufzügen (das ist Ihre Cloud-Infrastruktur). Plötzlich geht in einem Restaurant das Licht aus, und die Gäste beschweren sich.

Früher musste ein erfahrener Hausmeister (ein menschlicher Ingenieur) durch das ganze Gebäude laufen, alle Lichtschalter prüfen, die Stromzähler lesen und mit dem Küchenchef sprechen, um herauszufinden: Warum ist das Licht ausgegangen? War es ein defekter Sicherungskasten im Keller oder hat jemand versehentlich den Stecker gezogen?

Heute versuchen wir, KI-Agenten (Roboter mit einem sehr großen Gehirn, genannt LLMs) zu bauen, die diese Aufgabe automatisch erledigen sollen. Die Idee ist toll: Die KI liest alle Daten, denkt nach und sagt uns sofort, was kaputt ist.

Aber hier kommt das Problem, das diese Forscher untersucht haben: Die KI-Agenten versagen systematisch. Selbst die besten Modelle finden nur in etwa 3 bis 12 % der Fälle die genaue Ursache.

Warum? Die Forscher haben nicht nur geschaut, ob die KI recht hatte, sondern sich genau angesehen, wie sie gedacht hat. Sie haben 1.675 Versuche analysiert und dabei 12 typische Fehlermuster entdeckt. Hier ist die Erklärung in einfachen Bildern:

1. Der "Halluzinierende Detektiv" (Das häufigste Problem)

Stellen Sie sich vor, Sie schicken einen Detektiv in einen Raum, der voller Akten liegt. Der Detektiv soll die Akten lesen.

  • Was passiert: Der Detektiv liest die Akten nicht wirklich. Stattdessen erfindet er eine Geschichte, die logisch klingt, aber mit den Fakten nichts zu tun hat.
  • Das Beispiel: Die KI sieht einen Wert in einer Tabelle, der leicht erhöht ist. Statt zu prüfen, ob das wichtig ist, sagt sie: "Aha! Das ist das Problem!" und erfindet eine ganze Geschichte darum, warum das so ist.
  • Die Erkenntnis: Das passiert bei allen KI-Modellen, egal wie "smart" sie sind. Das Problem liegt nicht am Gehirn des Detektivs, sondern daran, wie er trainiert wurde, Geschichten zu erzählen, statt Fakten zu prüfen.

2. Der "Blinde Fleck" (Unvollständige Suche)

  • Das Bild: Der Detektiv betritt den Raum, sieht eine kaputte Lampe und sagt: "Das war's!" Er vergisst aber, dass es im Raum noch ein kaputtes Fenster und einen leeren Kühlschrank gibt, die vielleicht auch das Problem sind.
  • Die Realität: Die KI schaut sich oft nur einen Teil der Daten an (z. B. nur die CPU-Auslastung) und ignoriert völlig andere wichtige Bereiche (wie Netzwerkdaten oder Log-Dateien), obwohl sie alle zur Verfügung stehen. Sie sucht nicht tief genug.

3. Das "Stille Telefon" (Kommunikationsfehler zwischen Agenten)

Die KI-Systeme bestehen oft aus zwei Teilen:

  1. Der Chef (Controller): Denkt nach und gibt Anweisungen.
  2. Der Handwerker (Executor): Führt die Anweisungen aus (schreibt Code, prüft Daten).
  • Das Problem: Der Chef sagt dem Handwerker etwas auf Deutsch ("Schau dir die Temperatur an"). Der Handwerker muss das in eine exakte Programmiersprache übersetzen.
  • Der Fehler: Oft versteht der Handwerker die Anweisung falsch oder der Chef versteht das Ergebnis des Handwerkers falsch, weil sie nur eine kurze Zusammenfassung austauschen. Es ist wie ein Spiel "Stille Post", bei dem am Ende niemand mehr weiß, was eigentlich gemeint war.
  • Die Lösung der Forscher: Wenn sie dem Handwerker erlauben, dem Chef nicht nur eine Zusammenfassung, sondern den ganzen Code und die rohen Fehlermeldungen zu zeigen, funktioniert es plötzlich viel besser. Der Chef sieht sofort: "Oh, du hast das falsch verstanden!"

4. Warum "Bessere Anweisungen" nicht helfen

Die Forscher haben versucht, den KI-Agenten einfach bessere Anweisungen (Prompts) zu geben.

  • Versuch: "Bitte sei gründlicher! Lies alle Akten! Erfinde keine Geschichten!"
  • Ergebnis: Das half kaum. Die KI nickte zwar in ihrer Antwort ("Ja, ich werde gründlich sein"), tat es aber in der Praxis trotzdem nicht.
  • Die Lektion: Man kann einem Auto nicht durch eine bessere Ansage beibringen, schneller zu fahren, wenn der Motor defekt ist. Das Problem liegt im Systemdesign, nicht in den Worten.

Was haben die Forscher herausgefunden?

Die Studie zeigt, dass wir nicht einfach nur "klügere" KI-Modelle brauchen. Das Problem liegt im Bauplan der Agenten:

  1. Struktur ist wichtiger als Intelligenz: Selbst die smarteste KI macht die gleichen Fehler, wenn das System, in dem sie arbeitet, schlecht designed ist.
  2. Offene Kommunikation rettet: Wenn die Agenten untereinander mehr Details austauschen (nicht nur "Ich habe es geprüft", sondern "Hier ist der Code, hier ist der Fehler"), sinkt die Fehlerquote drastisch.
  3. Werkzeuge statt Worte: Statt die KI zu bitten, "besser zu denken", muss man ihr Werkzeuge geben, die ihre Fehler automatisch korrigieren (z. B. einen "Gedächtnis-Wächter", der verhindert, dass der Speicher voll läuft).

Fazit für den Alltag

Wenn Sie in Zukunft hören, dass eine KI bei einer wichtigen Aufgabe versagt, liegt es oft nicht daran, dass die KI "dumm" ist. Es liegt daran, dass wir ihr die falschen Werkzeuge in die Hand gegeben haben oder sie mit einem System arbeiten lässt, das sie dazu bringt, sich Dinge auszudenken, statt Fakten zu prüfen. Um KI wirklich zuverlässig zu machen, müssen wir ihre Arbeitsweise und Kommunikation umbauen, nicht nur ihre Anweisungen verbessern.