Cyber Threat Intelligence for Artificial Intelligence Systems

Diese Arbeit untersucht die Notwendigkeit und die Anforderungen einer an KI-Systeme angepassten Cyber Threat Intelligence, indem sie bestehende Lücken aufzeigt, einen Rahmen für KI-spezifische Indikatoren für Kompromisse (IoCs) in der Lieferkette entwickelt und Techniken zur Ähnlichkeitsmessung von KI-Artifakten vorschlägt.

Natalia Krawczyk, Mateusz Szczepkowski, Adrian Brodzik, Krzysztof Bocianiak

Veröffentlicht 2026-03-06
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

🛡️ KI-Sicherheit: Wie wir die neuen Diebe und Hacker verstehen lernen

Stellen Sie sich vor, die Welt der IT-Sicherheit war bisher wie ein großer, gut bewachter Burgwall. Die Wachen (die Sicherheitssoftware) wussten genau, wie Diebe (Hacker) in die Burg kamen: Sie kletterten über Mauern, schlugen Fenster ein oder fälschten Schlüssel. Das nennt man Cyber Threat Intelligence (CTI) – also das Wissen darüber, wie Diebe arbeiten, damit man sie stoppen kann.

Aber jetzt passiert etwas Neues: Künstliche Intelligenz (KI) ist in die Burg eingezogen. Sie hilft den Wachen, schneller zu sein, aber sie hat auch ein Problem: Die alten Wachen verstehen die neuen Diebe nicht mehr.

Dieses Papier von Natalia Krawczyk und ihrem Team fragt sich: Wie müssen unsere Wachen lernen, die neuen Diebe zu erkennen, die KI-Systeme angreifen?

Hier ist die Geschichte, aufgeteilt in vier einfache Kapitel:

1. Das neue Problem: Die Diebe haben sich verändert 🧠

Früher haben Hacker nur Computerprogramme gehackt. Heute nutzen sie KI, um noch schlauere Angriffe zu erfinden.

  • Die alte Welt: Ein Hacker schickt eine E-Mail mit einem Virus.
  • Die neue Welt: Ein Hacker nutzt KI, um eine E-Mail zu schreiben, die perfekt wie die Ihres Chefs klingt, oder er verändert ein Stoppschild so leicht, dass eine autonome KI das Auto nicht mehr erkennt.

Das ist wie bei einem Schloss: Früher brauchte man einen physischen Schlüssel. Heute kann ein Dieb den Schlüssel nachbauen, indem er das Schloss genau studiert, oder er nutzt einen Trick, um das Schloss zu täuschen, ohne es zu öffnen. Die alten Sicherheitsregeln funktionieren hier nicht mehr.

2. Der neue Werkzeugkasten: Woher wissen wir, wer die Diebe sind? 🔍

Um diese neuen Diebe zu fangen, brauchen wir ein neues Lexikon der Verbrechen. Das Papier untersucht, welche "Bücher" wir schon haben, um diese neuen Angriffe zu beschreiben:

  • Das "Krankenbuch" (Datenbanken für Fehler): Es gibt Listen, die aufschreiben, wo KI-Systeme schwach sind (wie ein Arzt, der Krankheiten notiert). Beispiele sind AVID oder OWASP. Aber das Papier sagt: Diese Listen sind noch nicht vollständig. Es fehlen viele Einträge.
  • Das "Polizeibericht-System" (Unfall-Register): Es gibt Datenbanken wie AIID, die echte Fälle sammeln: "Ein KI-System hat einen Autofahrer verletzt" oder "Eine KI hat eine falsche Entscheidung getroffen". Das ist wichtig, weil es zeigt, was wirklich passiert ist, nicht nur, was theoretisch passieren könnte.
  • Das "Täterprofil" (Wie arbeiten die Diebe?): Das bekannteste Beispiel ist MITRE ATLAS. Stellen Sie sich das wie ein Spickzettel für Diebe vor. Es beschreibt genau, wie ein Hacker vorgeht: Erst schaut er sich das System an, dann vergiftet er die Trainingsdaten, dann stiehlt er das Modell.

3. Die neuen Beweismittel: Was ist ein "Fingerabdruck" für KI? 🖐️

In der normalen Welt suchen Wachen nach Fingerabdrücken oder DNA (Hashes von Dateien). Aber wie sieht ein Fingerabdruck bei einer KI aus?

Stellen Sie sich eine KI wie einen Koch vor.

  • Ein normaler Dieb stiehlt den Kochlöffel (eine Datei).
  • Ein KI-Dieb verändert das Rezept (die Trainingsdaten) oder fügt eine geheime Zutat hinzu (einen "Backdoor"-Code), damit der Koch später ein giftiges Gericht serviert, wenn man ihn nach "Pizza" fragt.

Das Papier schlägt vor, neue Beweismittel zu sammeln:

  • Verdächtige Rezepte: Ist das Trainingsdatum verändert?
  • Geheime Zutaten: Gibt es Muster im Code, die nur für einen bestimmten Hack gedacht sind?
  • Der "Geschmackstest": Wenn die KI plötzlich komische Antworten gibt, ist das ein Alarmzeichen.

4. Die neue Detektivarbeit: Wie finden wir den Dieb? 🕵️‍♂️

Das Schwierigste ist: Ein Dieb kann sein "Rezept" leicht verändern. Er ändert ein Wort im Code, und der alte Fingerabdruck passt nicht mehr.

Das Papier schlägt vor, intelligente Suchmethoden zu nutzen:
Stellen Sie sich vor, Sie suchen nach einem bestimmten Auto.

  • Alte Methode: Sie suchen nach dem exakten Kennzeichen. Wenn der Dieb das Kennzeichen tauscht, finden Sie ihn nicht.
  • Neue Methode (Deep Hashing): Sie suchen nach dem Geräusch des Motors oder dem Stil der Lackierung. Selbst wenn der Dieb die Farbe ändert, klingt der Motor noch ähnlich.

Die Autoren schlagen vor, KI-Modelle nicht nur nach exakten Kopien zu suchen, sondern nach Ähnlichkeiten. Wie ein Detektiv, der sagt: "Dieser Dieb sieht zwar anders aus, aber er läuft genau wie der andere."

Fazit: Was lernen wir daraus? 🎓

Dieses Papier ist wie ein Bauplan für eine neue Sicherheitswache.

  1. Alte Regeln reichen nicht: Wir können nicht mehr nur auf die alten Listen schauen.
  2. Wir brauchen neue Daten: Wir müssen mehr über echte KI-Unfälle und neue Angriffsmethoden sammeln.
  3. Wir brauchen neue Werkzeuge: Wir müssen lernen, nicht nur nach Dateien, sondern nach "Rezepten" und "Verhaltensmustern" zu suchen.

Die große Botschaft: KI ist ein mächtiges Werkzeug, aber sie bringt auch neue, unsichtbare Gefahren mit sich. Um sicher zu sein, müssen wir aufhören, nur auf Computer zu schauen, und anfangen, die "Gedanken" und "Rezepte" der KI zu überwachen. Nur so können wir verhindern, dass die KI eines Tages gegen uns arbeitet.