CONCUR: Benchmarking LLMs for Concurrent Code Generation

Die Arbeit stellt CONCUR vor, ein neues Benchmark-System, das speziell entwickelt wurde, um die Fähigkeit von Large Language Models zur Generierung von nebenläufigem Code zu evaluieren und dabei deren aktuelle Grenzen im Umgang mit komplexen Parallelitätsproblemen wie Deadlocks und Race Conditions aufzuzeigen.

Jue Huang, Tarek Mahmud, Corina Pasareanu, Guowei Yang

Veröffentlicht 2026-03-05
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Titel: CONCUR – Der große Stresstest für KI-Programmierer im Chaos-Modus

Stell dir vor, du hast einen sehr klugen, aber manchmal etwas chaotischen Assistenten (eine KI), der dir gerne hilft, Code zu schreiben. Bisher haben wir diesen Assistenten nur bei einfachen, geradlinigen Aufgaben getestet: „Schreibe ein Programm, das eine Liste sortiert" oder „Berechne die Summe". Das ist wie ein Spaziergang auf einer geraden, leeren Straße. Der Assistent läuft gut, macht kaum Fehler und kommt sicher ans Ziel.

Aber die echte Welt ist kein Spaziergang auf einer geraden Straße. Die echte Welt ist ein verstopfter Kreuzungspunkt zu Stoßzeit, wo tausende Autos (Daten) gleichzeitig fahren, sich überholen und anhalten müssen, ohne zu kollidieren. Das nennt man konkurrente Programmierung.

Hier kommt das neue Papier „CONCUR" ins Spiel. Die Forscher sagen: „Unsere bisherigen Tests waren zu einfach! Wir müssen prüfen, ob unsere KI-Assistenten auch im Chaos zurechtkommen, ohne dass alles kollabiert."

Das Problem: Warum die Straße zu eng ist

Bei normalem Code (sequenziell) passiert alles nacheinander: Erst A, dann B, dann C.
Bei konkurrierendem Code passiert alles gleichzeitig: A, B und C versuchen gleichzeitig, die gleiche Ressource zu nutzen.

Das führt zu zwei berüchtigten Problemen, die es im normalen Leben gibt, aber im Code besonders tückisch sind:

  1. Der Stau (Deadlock): Stell dir vor, zwei Autos kommen an einer engen Brücke von gegenüberliegenden Seiten. Beide warten darauf, dass der andere zuerst fährt. Niemand bewegt sich mehr. Das Programm friert ein.
  2. Der Zusammenstoß (Race Condition): Zwei Fahrer wollen gleichzeitig auf einen Parkplatz. Wenn sie nicht aufeinander achten, rammen sie sich. Im Code bedeutet das: Daten werden durcheinandergebracht, weil zwei Prozesse gleichzeitig auf eine Zahl zugreifen.

Bisherige Tests für KIs haben diese Szenarien ignoriert. Sie haben nur die „leere Straße" getestet. Die Forscher von CONCUR wollten wissen: „Kann die KI wirklich sicher durch den Stau navigieren?"

Die Lösung: CONCUR – Der simulierte Chaos-Verkehr

Die Forscher haben einen neuen Prüfstand namens CONCUR gebaut. Stell dir das wie einen riesigen, virtuellen Verkehrsknotenpunkt vor, den sie mit einem speziellen Simulator (einem „Modell-Checker") überwachen.

Wie funktioniert der Test?

  1. Die Aufgaben (Die 115 Probleme): Sie haben 43 klassische Verkehrsszenarien aus einem Lehrbuch genommen (z. B. „Wie koordinieren wir 5 Arbeiter, die gemeinsam eine Wand bauen, ohne sich zu stören?"). Dazu haben sie 72 Variationen erfunden, damit die KI nicht einfach die Lösung auswendig gelernt hat. Insgesamt sind es 115 verschiedene „Verkehrssituationen".
  2. Der Assistent (Die KI): 23 verschiedene KI-Modelle (die besten, die es gibt) wurden gebeten, den Code für diese Situationen zu schreiben.
  3. Der Simulator (JPF): Das ist der Clou. Statt den Code nur einmal laufen zu lassen (was wie ein einzelner Testlauf auf der Straße wäre), nutzt der Simulator eine Zeitmaschine. Er lässt den Code unendlich oft laufen, aber jedes Mal mit einer anderen Reihenfolge der Ereignisse.
    • Beispiel: Mal fährt das Auto A zuerst, mal das Auto B. Mal warten beide. Der Simulator prüft jede denkbare Kombination, um sicherzustellen, dass es niemals zu einem Stau oder Crash kommt.

Was haben sie herausgefunden?

Die Ergebnisse waren eine Mischung aus „Gut gemacht" und „Noch viel zu tun".

  • Die KI ist gut im Schreiben, aber schlecht im Planen: Viele KIs konnten Code schreiben, der auf dem ersten Blick funktionierte (er kompilierte). Aber sobald der Simulator den Code unter Stress testete, brachen viele zusammen.
  • Der „Einzelgänger"-Fehler: Eine häufige Falle war, dass die KI zwar Code für mehrere Arbeiter schrieb, aber alle Arbeiten eigentlich nur von einem einzigen Arbeiter erledigte. Das ist wie ein Restaurant, das sagt: „Wir haben 10 Kellner!", aber in Wirklichkeit macht nur einer alles. Das ist technisch korrekt, aber es erfüllt nicht die Aufgabe des „konkurrierenden" Arbeitens.
  • Der CodeBLEU-Trick: Bisher haben Forscher oft eine Metrik namens „CodeBLEU" benutzt. Das ist wie ein Rechtschreibprüfer. Er schaut: „Siehst du aus wie die richtige Lösung? Hast du die richtigen Wörter benutzt?"
    • Das Ergebnis: CodeBLEU ist für diesen Test nutzlos! Eine KI konnte einen Code schreiben, der aussah wie die Lösung (hoher CodeBLEU-Wert), aber im Chaos der echten Ausführung sofort einen Stau verursachte. Es reicht nicht, dass der Code „gut aussieht"; er muss im Chaos funktionieren.

Die Moral der Geschichte

Die Forscher sagen uns mit CONCUR: Wir können uns nicht darauf verlassen, dass KIs einfach nur Code „nachahmen" können. Wenn wir KI in kritischen Systemen einsetzen wollen (wie in Flugzeugen oder Bankensystemen), müssen wir sie in simulierten Chaos-Szenarien testen, die jede denkbare Fehlsituation abdecken.

CONCUR ist also wie ein Crash-Test-Dummy für KI-Code. Er zeigt uns, wo die KIs noch lernen müssen, bevor wir ihnen die Schlüssel zum echten, komplexen Software-Universum geben können.

Zusammengefasst in einem Satz:
CONCUR ist ein neuer, strenger Test, der zeigt, dass viele KIs zwar gut darin sind, Code zu schreiben, der auf dem Papier funktioniert, aber im echten, chaotischen Multitasking oft scheitern – und dass wir aufhören müssen, nur auf das Aussehen des Codes zu schauen, sondern ihn wirklich unter Stress testen müssen.