Identifying Adversary Characteristics from an Observed Attack

Diese Arbeit stellt ein domänenübergreifendes Framework vor, das es Verteidigern ermöglicht, basierend auf einem beobachteten Angriff die wahrscheinlichsten Merkmale des Angreifers zu identifizieren, um sowohl exogene Minderungsmaßnahmen zu ergreifen als auch die Leistung von Verteidigungsmethoden zu verbessern, obwohl der Angreifer ohne zusätzliche Informationen theoretisch nicht eindeutig identifizierbar ist.

Soyon Choi, Scott Alfeld, Meiyi Ma

Veröffentlicht 2026-03-09
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Stellen Sie sich vor, Sie sind ein Sicherheitschef in einem hochmodernen Gebäude. Eines Tages bemerken Sie, dass jemand versucht hat, die Alarmanlage zu täuschen, indem er einen falschen Code eingibt. Die übliche Reaktion wäre: „Wir müssen die Alarmanlage stärker machen!" oder „Wir müssen den Code ändern."

Aber was, wenn Sie stattdessen versuchen würden, den Einbrecher selbst zu verstehen? Wer ist er? Was weiß er über Ihr System? Was ist sein Ziel? Und wie stark ist er eigentlich?

Genau das ist die Idee hinter dem Papier von Soyon Choi und ihren Kollegen. Sie schlagen vor, nicht nur die Attacke zu bekämpfen, sondern den Angreifer zu analysieren, um ihn zu identifizieren.

Hier ist die Erklärung des Papers in einfachen Worten, mit ein paar bildhaften Vergleichen:

1. Das Problem: Der „Geister-Einbrecher"

In der Welt der künstlichen Intelligenz (KI) gibt es „Adversarial Attacks". Das sind winzige, für das menschliche Auge unsichtbare Veränderungen an einem Bild oder einer Eingabe, die dazu führen, dass die KI einen riesigen Fehler macht (z. B. ein Stoppschild wird als Tempolimit 80 erkannt).

Bisher haben sich Forscher darauf konzentriert, diese Angriffe einfach zu blocken. Das Problem dabei: Es ist wie ein Katz-und-Maus-Spiel. Wenn Sie eine neue Türschleuse bauen, erfindet der Dieb einen neuen Dietrich. Die Verteidiger gehen oft davon aus, dass der Dieb „so und so" denkt. Aber in der Realität wissen wir das gar nicht! Der Dieb könnte schlauer, dümmer oder einfach anders motiviert sein.

2. Die neue Idee: Detektivarbeit statt Mauern

Die Autoren sagen: „Halt! Bevor wir die Mauern höher bauen, schauen wir uns die Fußspuren an."

Ihr Ziel ist es, aus dem beobachteten Angriff (den Fußspuren) herauszufinden:

  • Wissen (K): Was weiß der Angreifer über unser System? (Kennt er unsere Algorithmen?)
  • Fähigkeiten (C): Wie stark ist er? (Kann er nur kleine Veränderungen vornehmen oder riesige?)
  • Ziel (O): Was will er erreichen? (Will er Chaos stiften oder eine bestimmte Klasse von Objekten täuschen?)

3. Das große Hindernis: Der „Tausch-Verdächtige"

Hier kommt das spannende mathematische Problem ins Spiel. Die Autoren beweisen, dass man den Angreifer nicht eindeutig identifizieren kann, wenn man nur den Angriff sieht.

Die Analogie:
Stellen Sie sich vor, Sie finden ein zerbrochenes Fenster.

  • Szenario A: Ein starker Riese hat mit einem Stein geworfen.
  • Szenario B: Ein schwaches Kind hat mit einem schweren Stein geworfen.
  • Szenario C: Ein starker Riese hat mit einem leichten Stein geworfen.

Alle drei Szenarien führen zum gleichen zerbrochenen Fenster. Ohne weitere Informationen wissen Sie nicht, wer es war. In der KI-Welt bedeutet das: Unterschiedliche Kombinationen von Wissen, Fähigkeiten und Zielen können exakt denselben Angriff produzieren. Der Angreifer ist also „nicht identifizierbar".

4. Die Lösung: Die „Wahrscheinlichkeits-Wette"

Da wir den Angreifer nicht zu 100 % sicher kennen können, schlagen die Autoren vor, eine Wette zu spielen.

Stellen Sie sich vor, Sie sind ein Detektiv, der eine Vermutung hat (eine „Vorannahme").

  • „Ich vermute, der Dieb ist ein junger Hacker, der nur begrenzte Rechenleistung hat."
  • Dann schauen Sie sich den Angriff an. Passt er zu Ihrer Vermutung?
  • Wenn ja, behalten Sie die Vermutung. Wenn nein, passen Sie sie an.

Das Papier beschreibt einen mathematischen Rahmen, der genau das tut: Er kombiniert Ihre Vermutung (was Sie glauben, dass der Angreifer ist) mit der Evidenz (den tatsächlichen Daten des Angriffs). Das Ergebnis ist nicht „Wer ist es?", sondern „Wer ist es am wahrscheinlichsten?".

5. Warum ist das nützlich?

Wenn Sie wissen, wer der Angreifer wahrscheinlich ist, können Sie viel besser verteidigen:

  1. Außenstehende Maßnahmen (Exogene Absicherung): Wenn Sie wissen, dass der Angreifer ein bestimmtes Profil hat (z. B. ein Insider), können Sie ihn vielleicht sogar physisch finden, bestrafen oder seine Zugriffsrechte entziehen. Sie müssen nicht nur die Software ändern.
  2. Bessere Software-Verteidigung: Wenn Sie wissen, dass der Angreifer sehr schlau ist, können Sie Ihre KI speziell gegen seine Art von Angriff trainieren. Es ist wie ein Boxer, der weiß, dass sein Gegner links schlägt – er kann sich darauf vorbereiten, statt gegen alles blind zu boxen.

6. Was haben sie herausgefunden?

Die Autoren haben ihr System an drei verschiedenen Szenarien getestet:

  • Bei einfachen linearen Modellen (wie einem geraden Lineal) funktionierte es hervorragend. Sie konnten die „Fingerabdrücke" des Angreifers fast perfekt rekonstruieren.
  • Bei komplexeren Modellen (wie neuronalen Netzen, die wie das menschliche Gehirn funktionieren) war es schwieriger, aber immer noch viel besser als nichts zu tun. Die Ergebnisse waren etwas unruhiger (wie bei einem wackeligen Stuhl), aber die Methode hat sich bewährt.

Fazit

Dieses Papier ist wie ein neues Werkzeug für Sicherheitsbehörden. Anstatt nur zu sagen „Wir werden stärker werden", sagt es: „Lass uns erst herausfinden, wer uns angreift, wie er tickt und was er will. Nur dann können wir den Kampf wirklich gewinnen."

Es ist der Schritt vom blinden Verteidigen hin zum strategischen Verstehen des Gegners.