CONCUR: Benchmarking LLMs for Concurrent Code Generation
Dit paper introduceert CONCUR, een nieuw benchmark voor het evalueren van de vaardigheid van Large Language Models om concurrerende code te genereren, een domein dat complexer is dan sequentiële code en specifieke bugs zoals race conditions en deadlocks kent.