CyberThreat-Eval: Can Large Language Models Automate Real-World Threat Research?

Dit paper introduceert CyberThreat-Eval, een expert-geannoteerde benchmark die is gebaseerd op de daadwerkelijke workflow van een toonaangevend bedrijf om Large Language Models te evalueren op hun vermogen om real-world cyberdreigingsinlichtingen te analyseren, waarbij wordt vastgesteld dat huidige modellen tekortschieten in nuance en feitelijke nauwkeurigheid.

Xiangsen Chen, Xuan Feng, Shuo Chen, Matthieu Maitre, Sudipto Rakshit, Diana Duvieilh, Ashley Picone, Nan Tang

Gepubliceerd Wed, 11 Ma
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

🕵️‍♂️ De Digitale Detectives en de Slimme Robots

Stel je voor dat er een wereld vol digitale detectives is: cybersecurity-analisten. Hun werk is als een gigantische naald in een hooiberg zoeken. Elke dag stromen er duizenden nieuwsberichten, forumposts en rapporten binnen over hackers, virussen en gevaarlijke software. De taak van deze detectives is om die "hooiberg" te doorzoeken, de echte gevaarlijke "naalden" te vinden, en vervolgens een duidelijk verslag te schrijven voor de baas (of de overheid) zodat ze weten hoe ze zich moeten beschermen.

Tot nu toe deden mensen dit werk met de hand. Maar nu hebben we Grote Taalmodellen (LLMs), zoals de slimme robots die je misschien kent van chatbots. De vraag was: Kunnen deze robots het werk van de detectives overnemen?

De auteurs van dit paper (van Microsoft en de HKUST) zeggen: "Ja, maar ze zijn nog niet helemaal klaar." Ze hebben een nieuwe test ontwikkeld om dit te bewijzen.

🧪 De Nieuwe Test: "CyberThreat-Eval"

Vroeger testten wetenschappers deze robots met simpele quizzen.

  • Voorbeeld: "Wie is de hacker die CVE-2021-26855 heeft gebruikt? A, B, C of D?"

Dit is echter niet hoe echte detectives werken. In het echte leven krijgen ze geen meerkeuzevragen. Ze krijgen een rommelig nieuwsartikel en moeten zelf beslissen: "Is dit gevaarlijk? Zo ja, hoe gevaarlijk? En wat moeten we doen?"

De auteurs hebben daarom CyberThreat-Eval bedacht. Dit is een nieuwe, eerlijke test die precies kijkt naar hoe een echte detective werkt. Ze hebben de test opgedeeld in drie stappen, alsof je een huis bouwt:

  1. De Voordeur (Triage): Kijk naar de duizenden brieven op de mat. Welke zijn echt belangrijk en welke zijn gewoon reclame? De robot moet beslissen welke brieven hij oppakt.
  2. De Bibliotheek (Deep Search): Als de brief interessant is, moet de detective naar de bibliotheek gaan om meer informatie te vinden. De robot moet zelf op internet zoeken naar extra bewijsstukken die de originele brief aanvullen.
  3. Het Verslag (TI Drafting): Tot slot moet de detective een duidelijk verhaal schrijven: "Wie is de dader, hoe hebben ze het gedaan, en wat moeten we doen?"

🤖 Wat bleek uit de test?

De auteurs hebben verschillende robots (zoals GPT-4o en o3-mini) op deze test laten werken. Hier zijn de resultaten, vertaald naar alledaags taal:

  • De Robot is een goede verzamelaar, maar een slechte filter:
    Bij stap 1 (de voordeur) pikten de robots bijna alles op wat er op de mat lag. Ze misten bijna niets (goed!), maar ze pakten ook heel veel onzin mee (slecht!). Ze waren te bang om iets te missen, waardoor de echte detectives later nog steeds veel rommel moesten opruimen.
  • De Robot is goed in feiten, slecht in "wie":
    Bij het schrijven van het verslag (stap 3) waren de robots goed in het uitleggen van hoe iets werkte (bijvoorbeeld: "De hacker gebruikte een sleutel om het raam open te maken"). Maar ze waren slecht in het uitleggen van wie de dader was. Ze maakten vaak verzonnen verhalen over de identiteit van de hacker, of ze gaven te weinig details.
  • De Robot hallucineert (droomt):
    Soms gaf de robot een IP-adres of een viruscode op die er niet bestond. Dit is gevaarlijk. Als een detective denkt dat een virus op een bepaalde computer zit, maar dat is niet zo, dan gaat hij de verkeerde computer controleren en mist hij de echte dreiging.

🛠️ De Oplossing: De "Threat Research Agent" (TRA)

Omdat de robots alleen nog niet perfect zijn, hebben de auteurs een slimme oplossing bedacht: TRA.

Stel je TRA voor als een robot-assistent met een menselijke supervisor.

  1. De robot doet het zware werk: hij zoekt, leest en schrijft een eerste versie van het verslag.
  2. Maar voordat het verslag de deur uitgaat, checkt TRA het tegen echte databases (zoals een digitale "VirusTotal"). Als de robot een IP-adres verzonnen heeft, ziet TRA dit en corrigeert het.
  3. Mensen komen in beeld: Een echte menselijke expert kijkt mee. De robot vraagt: "Ik denk dat dit de dader is, maar ik ben niet zeker." De mens zegt: "Goed, check nog eens bij deze bron."

Dit werkt als een tandarts-assistent: de assistent (de robot) doet de tanden poetsen en de boel schoonmaken, maar de tandarts (de mens) kijkt erop om te zien of er geen gaatjes over het hoofd zijn gezien.

🏁 Conclusie: Wat betekent dit voor ons?

Dit paper zegt eigenlijk: "AI is een krachtige hulpmachine, maar we kunnen de knop 'volautomatisch' nog niet indrukken."

  • Goed nieuws: AI kan de detectives enorm helpen door de eerste ruwe zoektocht te doen. Het bespaart tijd en energie.
  • Niet zo goed nieuws: Als we de AI alleen laten werken, maken ze fouten die leiden tot verkeerde conclusies. Ze missen de nuance en de diepte die een ervaren mens heeft.

De boodschap is duidelijk: De toekomst ligt niet in het vervangen van de menselijke detective, maar in het geven van een superkrachtige bril aan de detective. Die bril (de TRA) helpt hem sneller te zien, maar de detective zelf moet nog steeds de beslissingen nemen en de eindcontrole doen.

Kort samengevat: De robots zijn slimme stagiairs die hard werken, maar ze hebben nog steeds een ervaren mentor nodig om te voorkomen dat ze de verkeerde weg oplopen.