Characterizing Faults in Agentic AI: A Taxonomy of Types, Symptoms, and Root Causes

Dit artikel presenteert een empirisch onderbouwde taxonomie van fouten in agentic AI-systemen, gebaseerd op de analyse van 13.602 issues en een developerstudie, die 37 fouttypes, 13 symptoomklassen en 12 oorzakelijke categorieën identificeert om betrouwbare systemen te bevorderen.

Mehil B Shah, Mohammad Mehdi Morovati, Mohammad Masudur Rahman, Foutse Khomh

Gepubliceerd Tue, 10 Ma
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een superintelligente, autonome assistent hebt. Deze assistent is niet alleen slim (hij kan denken en redeneren), maar hij kan ook zelfstandig acties ondernemen: hij kan e-mails schrijven, bestanden zoeken, software coderen en zelfs andere computers aansturen. Dit noemen we Agentic AI.

Maar, net als elke nieuwe technologie, gaat het niet altijd perfect. Soms doet deze assistent rare dingen: hij verwijdert per ongeluk belangrijke bestanden, blijft in een eindeloze cirkel van gedachten hangen, of roept de verkeerde mensen op voor hulp.

Deze paper is als een groot forensisch onderzoek naar al die fouten. De auteurs hebben duizenden meldingen van fouten in open-source projecten bestudeerd om te begrijpen: Waarom gaat het mis? Hoe ziet het eruit? En wat is de echte oorzaak?

Hier is de uitleg in simpele taal, met een paar creatieve vergelijkingen:

1. Het Probleem: Een hybride monster

Vroeger hadden we twee soorten software:

  • De Strakke Robot: Traditionele software die precies doet wat je zegt. Als het misgaat, is het een simpele code-fout (zoals een verkeerd getypte letter).
  • De Dromer: Een AI (zoals een chatbot) die creatief is maar soms hallucineert (dingen verzonnen).

Agentic AI is een hybride monster: het is een dromer die een strakke robot moet spelen. Hij moet creatief redeneren, maar tegelijkertijd exacte, veilige acties uitvoeren in de echte wereld.

  • De analogie: Stel je voor dat je een dichter (de AI) huurt om rekeningen te betalen (de taak). De dichter is briljant in gedichten, maar als hij per ongeluk een verkeerd bedrag invult of de bank niet begrijpt, is dat een ramp. De fout zit niet alleen in de dichter, en niet alleen in de bank, maar in hoe ze met elkaar praten.

2. Wat hebben ze gevonden? (De Taxonomie)

De auteurs hebben 385 echte fouten onder de loep genomen en een groot overzicht (taxonomie) gemaakt. Ze hebben de fouten ingedeeld in vijf grote categorieën, alsof je een huis inspecteert:

  1. Het Brein (Cognitie & Orkestratie): De assistent denkt verkeerd. Hij begrijpt de opdracht niet, gebruikt de verkeerde "taal" voor de AI, of telt de woorden (tokens) verkeerd.
    • Vergelijking: De dichter schrijft een gedicht in het Frans, terwijl de bank alleen Nederlands accepteert.
  2. De Handen (Tools & Acties): De assistent probeert iets te doen (een tool gebruiken), maar slaat de verkeerde knop in of heeft geen sleutel (authenticatie).
    • Vergelijking: Hij probeert een deur open te maken, maar gebruikt de sleutel van de buren.
  3. Het Geheugen (Context & Geheugen): De assistent vergeet wat hij eerder heeft gedaan of onthoudt de verkeerde feiten.
    • Vergelijking: Je loopt een gesprek met iemand die elke 5 minuten zijn geheugen reset. "Wie ben jij weer? Wat deden we net?"
  4. De Omgeving (Runtime & Grond): De assistent werkt in een omgeving die niet klopt. De software die hij nodig heeft is verouderd, of de computer is niet goed ingesteld.
    • Vergelijking: De dichter probeert te werken in een kamer waar de stoelen te klein zijn en het licht te fel is.
  5. De Waarschuwingsborden (Betrouwbaarheid & Observatie): We kunnen niet zien wat er misgaat. De assistent geeft geen foutmelding, of de melding is zo vaag dat niemand snapt wat er aan de hand is.
    • Vergelijking: De auto geeft geen "check engine" lampje, maar stopt gewoon midden op de snelweg.

3. De Kettingreactie (Hoe fouten zich verspreiden)

Een van de coolste ontdekkingen is dat fouten vaak kettingreacties veroorzaken.

  • Vergelijking: Het is als een dominospel. Als je de eerste steen (bijvoorbeeld een verkeerde datum-instelling) duwt, vallen er tientallen andere stenen om (verkeerde planning -> verkeerde e-mail -> verkeerde betaling).
  • De auteurs hebben ontdekt dat bepaalde symptomen bijna altijd leiden tot dezelfde oorzaak.
    • Voorbeeld: Als de assistent zegt "Ik kan niet inloggen", is de kans 99% groot dat het probleem zit in een verouderde wachtwoord-techniek, niet dat de server neergaat.
    • Voorbeeld: Als de assistent "verkeerde tijden" aangeeft, is het bijna altijd omdat de software verwarde tussen "tijden met tijdzone" en "tijden zonder tijdzone".

4. Wat zeggen de experts? (Validatie)

De auteurs hebben hun lijst met fouten voorgelegd aan 145 echte ontwikkelaars die dagelijks met deze systemen werken.

  • Het resultaat: De ontwikkelaars waren het bijna unaniem eens! Ze zeiden: "Ja, dit is precies wat wij elke dag meemaken."
  • De suggestie: Ze gaven wel aan dat er nog een paar dingen ontbreken, vooral over hoe meerdere assistenten samenwerken (soms praten ze met elkaar alsof ze in een groepje zijn en vergeten ze hun eigen taken) en hoe we beter kunnen zien wat er gebeurt (betere "observatie").

5. De Conclusie: Waarom is dit belangrijk?

Vroeger dachten we dat AI-fouten gewoon "raar gedrag" waren dat je moest accepteren. Dit paper laat zien dat het niet willekeurig is.

  • Het is gestructureerd.
  • Het heeft patronen.
  • Het is oplosbaar als je weet waar je moet zoeken.

De grote les: Om veilige AI-agenten te bouwen, moeten we stoppen met ze te behandelen als magische zwarte dozen. We moeten ze zien als complexe systemen die zorgvuldig moeten worden ontworpen, met sterke grenzen tussen het "dromerige" denken en de "strakke" uitvoering. We hebben betere waarschuwingssystemen nodig en moeten zorgen dat de assistent niet in een cirkel blijft draaien als het misgaat.

Kortom: Deze paper is de handleiding voor het begrijpen van de "krasjes en deuken" in de nieuwe generatie slimme robots, zodat we ze veiliger en betrouwbaarder kunnen maken voor de echte wereld.