CyberThreat-Eval: Can Large Language Models Automate Real-World Threat Research?

Die Arbeit stellt CyberThreat-Eval vor, ein neuartiges, von Experten annotiertes Benchmark, das auf realen CTI-Arbeitsabläufen basiert und die Grenzen aktueller LLMs bei der Automatisierung von Threat-Intelligence-Forschung durch praxisnahe Aufgaben und analystenzentrierte Metriken aufzeigt.

Xiangsen Chen, Xuan Feng, Shuo Chen, Matthieu Maitre, Sudipto Rakshit, Diana Duvieilh, Ashley Picone, Nan Tang

Veröffentlicht Wed, 11 Ma
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Hier ist eine einfache, bildhafte Erklärung der Forschungspapier „CyberThreat-Eval" auf Deutsch.

Stell dir vor, die Welt der Cybersicherheit ist ein riesiger, chaotischer Ozean voller Nachrichten. In diesem Ozean schwimmen Millionen von Zeitungsartikeln, Blogposts und Warnmeldungen. Die Aufgabe von Sicherheitsanalysten (den „Fischern") ist es, aus diesem Ozean die wenigen, wirklich gefährlichen „Haie" (echte Cyberangriffe) herauszufischen und daraus einen klaren Bericht zu machen, damit die Schiffe (Unternehmen) sicher bleiben.

Bisher mussten die Fischer das alles von Hand machen. Das ist mühsam, langsam und führt dazu, dass sie manchmal vor lauter Arbeit die Haie übersehen.

Das Problem: Die alten Prüfungen waren falsch

Die Forscher wollten herausfinden: „Können künstliche Intelligenzen (KI) diese Fischerarbeit übernehmen?"
Dafür gab es bisher Tests für die KI. Aber diese Tests waren wie Schulprüfungen, die im echten Leben keinen Sinn ergeben:

  • Multiple Choice: In der echten Welt muss ein Fischer nicht ankreuzen, ob ein Hai „A, B oder C" ist. Er muss den Hai erkennen und beschreiben.
  • Wortzählen: Die alten Tests haben nur geschaut, ob die KI die gleichen Wörter wie der Lehrer benutzt hat. Aber im echten Leben zählt nicht das Wort, sondern die Handlung. Eine kurze, leere Zusammenfassung wurde oft als „besser" bewertet als eine detaillierte, nützliche Anleitung – nur weil sie mehr Wörter hatte. Das ist, als würde man einen Koch nur dafür loben, dass er viel Salz in den Topf getan hat, statt darauf zu achten, ob das Essen schmeckt.

Die Lösung: CyberThreat-Eval (Der echte Bootstest)

Die Autoren haben einen neuen, viel besseren Test entwickelt, den sie CyberThreat-Eval nennen. Sie haben ihn nicht in einem Labor erfunden, sondern direkt aus dem Alltag der Microsoft-Sicherheitsexperten.

Stell dir das wie einen Bootstest für einen neuen Motor vor. Statt den Motor nur auf einem Prüfstand laufen zu lassen, setzen sie ihn in ein echtes Boot und fahren damit durch den Sturm.

Der Test deckt drei echte Arbeitsphasen ab:

  1. Das Triage (Sortieren): Die KI muss schnell entscheiden: „Ist dieser Artikel wichtig oder nur Müll?" (Wie ein Türsteher, der entscheidet, wer in den Club darf).
  2. Die Tiefensuche (Deep Search): Wenn es wichtig ist, muss die KI wie ein Detektiv weitere Hinweise im Internet suchen und zusammenführen.
  3. Der Bericht (Drafting): Am Ende muss die KI einen verständlichen Bericht schreiben, der genau erklärt: Wer war der Angreifer? Wie hat er es gemacht? Was müssen wir tun?

Was haben sie herausgefunden? (Die Ergebnisse)

Die Ergebnisse waren eine Mischung aus „Toll!" und „Noch nicht ganz fertig":

  • Die KI ist gut im „Sammeln": Sie findet fast alle relevanten Artikel (hohe Erinnerungsfähigkeit). Aber sie ist schlecht im „Auswählen". Sie hält oft auch harmlose Nachrichten für gefährlich (niedrige Präzision). Das ist wie ein Hund, der bellt, wenn eine Katze vorbeiläuft – er findet alles, aber er ist nicht sehr genau.
  • Die KI ist gut im „Schreiben": Wenn es darum geht, einen logischen Text über einen Vorfall zu schreiben, macht sie das ziemlich gut.
  • Die KI ist schlecht im „Verstehen": Das ist das größte Problem. Wenn die KI erklären soll, wie genau ein Hacker gearbeitet hat (die Taktiken), macht sie oft Fehler. Sie erfindet Details, die es gar nicht gibt (Halluzinationen). Das ist wie ein Schüler, der eine Geschichte erfindet, weil er die Aufgabe nicht verstanden hat.
  • Kostenfalle: Manche KI-Modelle sind sehr genau, brauchen aber so viel Zeit und Rechenleistung, dass es zu teuer wird. Es ist wie ein Ferrari, der zwar schnell ist, aber 100 Liter Benzin pro Kilometer braucht.

Die Lösung für die Zukunft: TRA (Der KI-Assistent mit menschlichem Co-Pilot)

Da die KI allein noch nicht perfekt ist, haben die Forscher ein neues System namens TRA (Threat Research Agent) entwickelt.

Stell dir TRA nicht als einen einsamen Roboter vor, sondern als einen Team-Sportler mit einem menschlichen Trainer:

  1. Die KI macht den ersten Entwurf: Sie sucht, liest und schreibt.
  2. Der menschliche Experte (oder eine Datenbank) prüft: TRA nutzt externe, verifizierte Datenbanken (wie eine riesige, aktuelle Enzyklopädie), um zu prüfen: „Stimmt dieser IP-Adresse wirklich? War das wirklich ein Hacker?"
  3. Feedback-Schleife: Wenn die KI einen Fehler macht, lernt sie daraus sofort.

Das Ergebnis: Mit diesem System werden die Berichte viel genauer. Die KI findet Dinge, die Menschen übersehen (weil sie müde sind), und die Menschen korrigieren die Fehler der KI (weil sie die KI nicht blind vertrauen).

Fazit in einem Satz

Die KI ist wie ein sehr schneller, aber manchmal etwas verwirrter Assistent. Sie kann riesige Mengen an Informationen durchsuchen und Texte schreiben, aber sie braucht noch einen menschlichen Chef, der die wichtigen Entscheidungen trifft und die Fakten überprüft, damit am Ende ein sicherer Bericht herauskommt. Das neue System CyberThreat-Eval hilft uns zu messen, wie gut dieser Assistent wirklich ist, und TRA zeigt uns, wie man ihn und den Menschen zum perfekten Team macht.