Secure human oversight of AI: Threat modeling in a socio-technical context

Der Artikel führt eine Sicherheitsperspektive auf die menschliche Aufsicht über KI ein, modelliert diese als IT-Anwendung zur systematischen Bedrohungsanalyse und bietet damit Leitlinien sowie Abwehrstrategien, um neue Angriffsvektoren in diesem sozio-technischen Kontext zu identifizieren und zu minimieren.

Jonas C. Ditz, Veronika Lazar, Elmar Lichtmeß, Carola Plesch, Matthias Heck, Kevin Baum, Markus Langer

Veröffentlicht 2026-03-06
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Das Sicherheits-Problem des „Menschen im Kontrollturm"

Stell dir vor, wir bauen einen riesigen, hochmodernen Zug, der von einer künstlichen Intelligenz (KI) gesteuert wird. Dieser Zug fährt durch kritische Bereiche wie Krankenhäuser oder Stromnetze. Damit nichts schiefgeht, gibt es einen menschlichen Aufsichtsposten (den „Human Oversight"). Dieser Mensch sitzt in einem Kontrollturm, schaut auf die Bildschirme und kann im Notfall den Notbremshebel ziehen oder eingreifen, wenn die KI einen Fehler macht.

Bisher haben alle Forscher und Politiker nur darüber diskutiert: „Ist dieser Mensch gut genug? Versteht er die KI? Hat er genug Macht, um zu bremsen?"

Das neue Papier sagt aber: Wir haben etwas Wichtiges übersehen! Wir haben den Kontrollturm selbst nicht abgesichert. Wenn ein Hacker den Kontrollturm kaputt macht, ist der ganze Zug in Gefahr – egal wie gut der Mensch eigentlich ist.

Hier ist die Idee des Papers in drei einfachen Schritten:

1. Der Kontrollturm ist auch ein Computer (und damit angreifbar)

Der Aufsichtsmensch nutzt Software, Bildschirme und Netzwerke, um die KI zu beobachten. Das Paper nennt das „Human Oversight IT-System".

  • Die Metapher: Stell dir vor, der Aufsichtsmensch hat ein Handy, um die KI zu steuern. Wenn jemand dieses Handy hackt, kann er dem Menschen vor dem Bildschirm eine falsche Nachricht schicken („Alles okay, fahr weiter!") oder ihm das Handy klauen.
  • Das Problem: Bisher dachten wir, der Mensch sei der sicherste Teil. Aber wenn die Technik, die er benutzt, unsicher ist, wird der Mensch zum schwächsten Glied der Kette. Hacker können jetzt nicht nur die KI angreifen, sondern auch den Menschen, der sie überwacht.

2. Wie Hacker den Kontrollturm angreifen (Die „Waffen")

Die Autoren haben eine Checkliste erstellt, wie Bösewichte diesen neuen Kontrollturm angreifen könnten. Sie nutzen dafür eine bekannte Methode aus der IT-Sicherheit (genannt STRIDE), die sie auf den Menschen angewendet haben:

  • Verkleidung (Spoofing): Ein Hacker gibt sich als der Aufsichtsmensch aus. Er loggt sich mit gestohlenen Passwörtern ein und tut so, als wäre er der Chef. Die KI denkt: „Alles klar, der Chef gibt den Befehl."
  • Manipulation (Tampering): Ein Hacker schickt dem Aufsichtsmann falsche Daten. Statt zu sehen, dass die KI einen Fehler macht, sieht er auf dem Bildschirm: „Alles perfekt." Er greift also nicht ein, obwohl er es müsste.
  • Lügen (Repudiation): Ein Hacker zwingt den Aufsichtsmann (durch Erpressung oder Bestechung), die KI zu sabotieren. Wenn der Hacker später gefragt wird: „Wer hat das getan?", sagt der Mensch: „Ich war das nicht, ich habe nur gehorcht." Oder der Hacker löscht die Protokolle, damit niemand merkt, was passiert ist.
  • Spionieren (Information Disclosure): Der Hacker stiehlt die Geheimnisse des Systems. Er sieht, wie der Aufsichtsmann denkt und was er plant.
  • Lähmung (Denial of Service): Der Hacker flutet das Netzwerk mit Müll-Daten. Der Aufsichtsmann sieht plötzlich gar nichts mehr auf seinen Bildschirmen. Er kann nicht eingreifen, weil er „blind" ist.
  • Aufsteigen (Elevation of Privilege): Ein Hacker nutzt einen Fehler, um mehr Rechte zu bekommen. Plötzlich hat die KI oder der Hacker mehr Macht als der Aufsichtsmann und kann dessen Befehle ignorieren.

3. Wie man den Kontrollturm „härter" macht (Die Lösungen)

Das Paper schlägt vor, wie man diesen neuen „Angriffsvektor" (den Weg für Hacker) absichert. Es ist wie beim Hausbau: Du musst nicht nur die Tür zum Haus (die KI) sichern, sondern auch das Wachhaus (den Aufsichtsmann).

  • Ein Alarmsystem (Intrusion Detection): Installiere Kameras und Sensoren im Kontrollturm. Wenn jemand versucht, sich zu verkleiden oder Daten zu stehlen, muss sofort Alarm schlagen.
  • Verschlüsselung (Encryption): Sende alle Nachrichten zwischen dem Menschen und der KI in einem verschlossenen, unknackbaren Panzerwagen. Niemand darf sie unterwegs öffnen können.
  • Netzwerk-Management: Baue Schutzwälle, damit der Kontrollturm nicht durch zu viele Anfragen (DDoS-Angriffe) lahmgelegt wird.
  • Transparenz: Sei offen über die Technik. Wenn alle wissen, wie das System funktioniert, ist es schwerer, versteckte Fallen zu bauen.
  • Training für die Wachen: Das ist der wichtigste Punkt! Der Aufsichtsmann muss geschult werden. Er muss lernen, Phishing-Mails zu erkennen, nicht auf Erpressung hereinzufallen und zu wissen, wann er misstrauisch werden muss. Ein gut trainierter Mensch ist die beste Firewall.
  • Rote Teams (Red Teaming): Bevor das System live geht, lass eine Gruppe von „guten Hackern" versuchen, das System zu knacken. So findest du die Löcher, bevor die bösen Hacker sie finden.

Das Fazit in einem Satz

Wir bauen riesige KI-Systeme und setzen Menschen als Sicherheitsventil ein. Aber wenn wir die Technik, die diese Menschen benutzen, nicht genauso gut schützen wie die KI selbst, dann ist das Sicherheitsventil nur eine leere Hülle. Sichere KI braucht einen sicheren Menschen – und dafür muss auch der Mensch vor Hackerangriffen geschützt werden.