SBOMs into Agentic AIBOMs: Schema Extensions, Agentic Orchestration, and Reproducibility Evaluation

Diese Arbeit stellt einen agenten Rahmen für künstliche Intelligenz-Rechnungen (AIBOMs) vor, der statische Software-Bills-of-Materials durch autonome Multi-Agenten-Systeme in dynamische, kontextbewusste Nachweisartefakte erweitert, um Reproduzierbarkeit und Schwachstellenbewertung unter sich ändernden Laufzeitbedingungen zu verbessern.

Petar Radanliev, Carsten Maple, Omar Santos, Kayvan Atefi

Veröffentlicht Thu, 12 Ma
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Hier ist eine einfache Erklärung der Forschung von Dr. Petar Radanliev, die das Konzept der „Agentic AIBOMs" (Agenten-gesteuerte KI-Software-Bills of Materials) beschreibt.

Stellen Sie sich vor, Sie kaufen ein komplexes, selbstgebautes Auto.

Das alte Problem: Die statische Einkaufsliste (SBOM)

Bisher gab es für Software nur eine Einkaufsliste (im Fachjargon: SBOM – Software Bill of Materials). Diese Liste sagt Ihnen: „In diesem Auto sind 500 Schrauben, 10 Motoren und 3 Reifen von Hersteller X, Y und Z."

Das Problem ist: Die Liste ist statisch. Sie sagt Ihnen nicht:

  • Ob der Motor tatsächlich läuft oder nur im Kofferraum liegt.
  • Ob die Schrauben locker sind, weil das Auto auf holprigen Straßen gefahren wurde.
  • Ob ein bestimmter defekter Motor wirklich einen Unfall verursacht, wenn er gar nicht benutzt wird.

Wenn ein Sicherheitsproblem bekannt wird (z. B. „Reifen von Hersteller X können platzen"), muss man die ganze Liste durchgehen. Aber: Vielleicht war dieser Reifen im Auto gar nicht verbaut, oder das Auto hat eine spezielle Federung, die das Platzen verhindert. Die alte Liste kann das nicht unterscheiden. Das führt zu Panik oder unnötigen Reparaturen.

Die neue Lösung: Der intelligente, lebendige Begleiter (AIBOM)

Dr. Radanliev und sein Team haben eine Idee entwickelt, wie man diese statische Liste in einen intelligenten, lebendigen Begleiter verwandeln. Sie nennen das AIBOM (Agentic Artificial Intelligence Bill of Materials).

Stellen Sie sich das AIBOM nicht als Papierliste vor, sondern als einen kleinen, wachsamen Butler, der dem Auto (der Software) während der gesamten Fahrt folgt. Dieser Butler besteht aus drei Spezialisten (Agenten), die zusammenarbeiten:

1. Der Architekt (MCP) – „Was ist eigentlich im Kofferraum?"

Bevor das Auto losfährt, überprüft dieser Agent genau, was im Kofferraum liegt. Er stellt sicher, dass die Einkaufsliste mit dem tatsächlichen Inhalt übereinstimmt. Wenn etwas fehlt oder verdächtig aussieht, warnt er sofort. Er sorgt dafür, dass wir genau wissen, woraus das Auto besteht, bevor es losgeht.

2. Der Beobachter (A2A) – „Was passiert gerade auf der Straße?"

Während das Auto fährt, beobachtet dieser Agent die Straße.

  • Wird ein neuer Motor während der Fahrt eingebaut?
  • Wird ein defekter Teil tatsächlich benutzt, oder liegt er nur herum?
  • Ändert sich das Wetter (die Umgebung), sodass ein Teil, das vorher sicher war, jetzt gefährlich wird?
    Er merkt sich alles, was tatsächlich passiert, nicht nur das, was geplant war.

3. Der Richter (AGNTCY) – „Ist das jetzt wirklich gefährlich?"

Dieser Agent nimmt die Informationen vom Architekt und dem Beobachter und wendet die Gesetze (Sicherheitsrichtlinien) an.

  • Frage: „Der Motor von Hersteller X ist defekt."
  • Beobachtung: „Aber unser Butler hat gesehen, dass dieser Motor in diesem Auto gar nicht angeschlossen ist."
  • Urteil: „Kein Problem! Das Auto ist sicher." (Fachbegriff: „Not Affected").
  • Alternativ: „Der Motor ist angeschlossen, aber wir haben eine Schutzvorrichtung eingebaut."
  • Urteil: „Gefahr gebannt, aber wir müssen aufpassen." (Fachbegriff: „Mitigated").

Der Richter sagt also nicht einfach nur „Gefahr!", sondern erklärt warum es gefährlich ist oder warum es sicher ist.

Warum ist das so wichtig?

  1. Keine Panikmache mehr: Statt tausende von Warnungen zu bekommen, die alle „Gefahr!" schreien, erhalten Sie nur die Warnungen, die für Ihr spezifisches Auto in Ihrer aktuellen Situation wirklich relevant sind.
  2. Nachvollziehbarkeit: Wenn etwas schiefgeht, können Sie genau nachsehen: „Ah, der Agent hat gesehen, dass das Teil nicht benutzt wurde." Das macht die Sicherheit überprüfbar.
  3. Standardisierung: Der Butler spricht eine offizielle Sprache (ISO-Standards), die auch Behörden und Prüfer verstehen. Es ist keine Erfindung von einem einzelnen Programmierer, sondern ein allgemein anerkanntes Regelwerk.

Die Analogie zum Alltag

Stellen Sie sich vor, Sie kochen ein kompliziertes Gericht für eine Prüfung.

  • Die alte Liste (SBOM) wäre ein Zettel, auf dem steht: „Wir haben Tomaten, Eier und Mehl." Wenn die Tomaten verdorben sind, müssten Sie das ganze Gericht wegwerfen, auch wenn Sie gar keine Tomaten benutzt haben.
  • Der neue Butler (AIBOM) wäre ein Kochassistent, der mit Ihnen kocht. Er sieht: „Hey, die Tomaten sind verdorben, aber wir haben sie gar nicht reingetan. Die Eier sind frisch und wir haben sie benutzt. Also ist das Gericht sicher." Er schreibt dann einen Bericht auf, der genau erklärt, warum das Gericht sicher ist.

Fazit

Die Forschung zeigt, dass wir von einer passiven Liste (die nur auflistet, was da ist) zu einem aktiven Sicherheitsassistenten übergehen müssen. Dieser Assistent nutzt künstliche Intelligenz, um nicht nur zu zählen, sondern zu verstehen, was in der Software gerade passiert. Das macht Software sicherer, transparenter und weniger anfällig für Fehlalarme.

Es ist der Unterschied zwischen einem Tagebuch, das nur aufschreibt, was passiert ist, und einem intelligenten Wachhund, der die Situation bewertet und Ihnen sagt, ob Sie wirklich in Gefahr sind.