CONCUR: Benchmarking LLMs for Concurrent Code Generation
Die Arbeit stellt CONCUR vor, ein neues Benchmark-System, das speziell entwickelt wurde, um die Fähigkeit von Large Language Models zur Generierung von nebenläufigem Code zu evaluieren und dabei deren aktuelle Grenzen im Umgang mit komplexen Parallelitätsproblemen wie Deadlocks und Race Conditions aufzuzeigen.