Extracting Recurring Vulnerabilities from Black-Box LLM-Generated Software

Deze studie introduceert FSTab, een methode voor het voorspellen van herhalende kwetsbaarheden in door LLM's gegenereerde software op basis van zichtbare functies, en toont aan dat deze aanval ook succesvol is over verschillende domeinen heen, zelfs zonder toegang tot de broncode.

Tomer Kordonsky, Maayan Yamin, Noam Benzimra, Amit LeVi, Avi Mendelson

Gepubliceerd 2026-03-10
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

🕵️‍♂️ De "Geheime Handtekening" van AI-Code

Stel je voor dat je een enorme fabriek hebt die automatisch gebouwen bouwt. In plaats van dat er duizenden verschillende architecten werken, gebruikt deze fabriek slechts een paar zeer specifieke, vaste blauwdrukken.

Dit is wat er gebeurt als AI (Large Language Models of LLM's) software schrijft. De AI is geweldig in het snel bouwen van apps, maar ze heeft een eigenaardigheid: ze herhaalt zich. Als ze een "Inlogknop" moet maken, gebruikt ze vaak exact dezelfde code-structuur, keer op keer. En als die structuur een foutje bevat, dan zit dat foutje in elke app die ze bouwt met die knop.

De onderzoekers van deze paper (uit Israël) hebben ontdekt dat ze deze fouten kunnen voorspellen zonder ooit de binnenkant van het gebouw te zien. Ze hebben een nieuw systeem bedacht dat ze FSTab noemen.

🗺️ De "Fouten-Atlas" (FSTab)

Stel je voor dat je een detective bent die een nieuw gebouw binnenstapt. Je mag niet naar de binnenkant kijken (geen toegang tot de broncode), maar je kunt wel naar de voordeur, de ramen en het bordje "Welkom" kijken.

Normaal gesproken zou je denken: "Ik weet niet wat er achter die deur zit."

Maar met FSTab (Feature–Security Table) kun je zeggen:

"Ah, ik zie een rode deur met een gouden handvat. Volgens mijn atlas betekent dat: 'Achter die deur zit een open raam waar een inbreker zo doorheen kan klimmen'."

Hoe werkt dit?

  1. De Atlas maken: De onderzoekers lieten de AI duizenden apps bouwen. Ze keken welke "zichtbare dingen" (zoals een login-scherm of een knop om een bestand te uploaden) vaak gepaard gingen met welke "onzichtbare fouten" (zoals een zwak wachtwoord-systeem of een open database).
  2. De Link: Ze maakten een lijstje: "Als je 'Login met wachtwoord' ziet, is de kans 90% dat er een specifiek type beveiligingslek in de achterkant zit."
  3. De Aanval: Een hacker hoeft nu alleen maar naar de website te kijken, te zien welke knoppen er zijn, en op hun lijstje te kijken wat de waarschijnlijke fout is. Ze hoeven de code niet eens te zien!

🧠 Waarom gebeurt dit? (De "Recepten")

De onderzoekers noemen dit herhalende kwetsbaarheden.

Stel je voor dat een kok (de AI) een recept voor "Tomatensoep" heeft. Hij maakt die soep 100 keer. Elke keer gebruikt hij precies hetzelfde mes, precies dezelfde snijtechniek en precies hetzelfde potje.

  • Als hij per ongeluk een stukje glas in de soep doet, gebeurt dat elke keer als hij tomatensoep maakt.
  • Het maakt niet uit of hij de soep voor een restaurant in Parijs of voor een school in Amsterdam maakt. Het glas zit erin, omdat het recept (de AI's "stijl") hetzelfde is.

De paper laat zien dat AI's vaak "recepten" gebruiken die veiligheidsfouten bevatten. En omdat de AI zo consistent is, kun je die fouten voorspellen.

📊 De Resultaten: Het "Universum van Fouten"

De onderzoekers testten dit op de slimste AI's ter wereld (zoals GPT-5.2, Claude-4.5, etc.). Wat vonden ze?

  1. Het werkt overal: Of je nu een webshop bouwt, een blog of een intern systeem voor een bedrijf. Als de AI een "Login"-functie maakt, zit er vaak een voorspelbare fout in.
  2. De "Universale Kloof": Ze ontdekten iets verrassends. De fouten die een AI maakt in een webshop zijn vaak precies dezelfde als die in een sociale media-app. De AI heeft een "persoonlijkheid" van fouten. Als je weet hoe de AI faalt in één situatie, weet je hoe hij faalt in een andere.
  3. Hoeveel succes? In sommige gevallen kon de "atlas" de hackers helpen om 94% van de mogelijke fouten te vinden, zelfs als ze de AI nooit eerder hadden gezien in dat specifieke vakgebied.

⚠️ Wat betekent dit voor ons?

Dit klinkt misschien eng, maar het is eigenlijk een belangrijke waarschuwing.

  • Voor ontwikkelaars: Je kunt niet zomaar vertrouwen op AI om veilig code te schrijven. Je moet de "recepten" controleren. Als je een login-scherm laat maken door AI, moet je extra goed kijken of er geen "glazen stukjes" in zitten.
  • Voor beveiliging: We moeten stoppen met alleen kijken naar de code die we hebben. We moeten ook kijken naar wie (of wat) de code heeft geschreven. Elke AI heeft zijn eigen "veiligheidsstijl".
  • De oplossing: De onderzoekers zeggen niet "gebruik geen AI". Ze zeggen: "Weet waar de valkuilen zitten." Met hun tool (FSTab) kunnen bedrijven proactief controleren: "O, we gebruiken AI-model X voor onze login. Weet je dat die model vaak een fout maakt bij wachtwoorden? Laten we dat eerst fixen voordat we online gaan."

🎯 Samenvatting in één zin

AI's schrijven code alsof ze een vast recept volgen; als dat recept een fout bevat, zit die fout in elke app die ze maken, en onderzoekers hebben nu een "spookkaart" gemaakt om die fouten te vinden zonder de code te hoeven zien.