CUDABench: Benchmarking LLMs for Text-to-CUDA Generation

In dit artikel wordt CUDABench voorgesteld, een uitgebreide benchmark die de prestaties van grote taalmodellen bij het genereren van CUDA-code uit tekst evalueert aan de hand van een nieuwe dataset en een verificatiepijplijn die correctheid, functionaliteit en prestaties meet.

Jiace Zhu, Wentao Chen, Qi Fan, Zhixing Ren, Junying Wu, Xing Zhe Chai, Chotiwit Rungrueangwutthinon, Yehan Ma, An Zou

Gepubliceerd 2026-03-04
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een meesterchef bent die een recept wil geven aan een robot. Je zegt: "Maak een heerlijke lasagne." De robot is slim, hij kent de woorden "lasagne", "tomaten" en "kaas". Maar als hij de lasagne maakt, blijkt hij de oven op de verkeerde temperatuur te zetten, de kaas te verbranden of de pasta te vergeten te koken.

Dit is precies het probleem dat dit nieuwe onderzoek, CUDABench, aanpakt.

Hier is een uitleg in gewone taal, met een paar leuke vergelijkingen:

1. Het Probleem: De "Vertaler" die niet "Bouwt"

Tot nu toe hebben we gekeken of slimme computers (LLMs) goed kunnen vertalen. Bijvoorbeeld: "Zet deze Python-code om in CUDA-code" (de taal die grafische kaarten, zoals die in je videokaart, begrijpen). Dat is als een robot die een bestaand recept in het Frans omzet naar het Nederlands. Dat gaat vaak goed.

Maar CUDABench kijkt naar iets veel moeilijker: Tekst-naar-CUDA.
Je zegt tegen de robot: "Bouw een motor die zo snel mogelijk een auto laat rijden." De robot moet dan zelf bedenken hoe die motor eruit moet zien, zonder dat je hem het blauwdruk geeft.

  • De uitdaging: Het bouwen van een GPU-programma is als het bouwen van een raceauto. Je moet niet alleen weten hoe een motor werkt, maar ook hoe je de wielen perfect op de weg zet, hoe je brandstof bespaart en hoe je de aerodynamica optimaliseert. Als je dit fout doet, werkt de auto misschien wel (de motor start), maar hij rijdt heel traag.

2. De Oplossing: CUDABench (De "Super-Test")

De onderzoekers hebben een nieuwe test ontwikkeld, CUDABench, om te zien hoe goed deze robots echt zijn in het bouwen van deze "raceauto's" (GPU-programma's).

Ze hebben de test opgedeeld in drie dimensies, zoals een 3D-ruimte:

  • Breedte (De soorten taken): De robot moet niet alleen lasagne kunnen maken, maar ook soep, sushi en taart. In de computerwereld betekent dit: wiskunde, kunstmatige intelligentie, beeldherkenning, wetenschappelijke simulaties en financiële berekeningen.
  • Diepte (De grootte): Soms moet de robot een klein gerechtje maken voor één persoon (kleine data), en soms een gigantisch buffet voor een heel stadion (gigantische data). De robot moet kunnen schalen.
  • Moeilijkheidsgraad (De hints):
    • Niveau 1: "Maak lasagne, gebruik deze specifieke pan en deze temperatuur." (Veel hulp).
    • Niveau 2: "Maak lasagne, maar bedenk zelf de temperatuur." (Minder hulp).
    • Niveau 3: "Maak lasagne." (Geen hints, de robot moet alles zelf weten).

3. De Score: Niet alleen "Werkt het?", maar "Is het snel?"

Vroeger keken we alleen of de code werkte. Als de robot een lasagne maakte die eetbaar was, gaf hij een 10.
Maar in de wereld van GPU's (videokaarten) is snelheid alles. Een lasagne die wel eetbaar is, maar 10 uur in de oven staat, is nutteloos.

Daarom hebben ze een nieuwe score bedacht, de CUDABench-Score, gebaseerd op een "Daklijn-model" (Roofline Model).

  • De Analogie: Stel je voor dat je een auto hebt met een maximumsnelheid van 300 km/u (de kracht van de videokaart).
    • Als de robot een auto bouwt die maar 10 km/u rijdt, is de score laag, zelfs als de auto wel rijdt.
    • Als de robot een auto bouwt die 290 km/u rijdt, is de score hoog.
    • De test kijkt dus niet alleen of de code compileert (de motor start), maar of de robot de maximale snelheid van de hardware haalt.

4. Wat Vonden Ze? (De Verbluffende Resultaten)

Ze hebben de slimste robots ter wereld (zoals GPT-5, Claude, Gemini) op deze test gezet. Het resultaat? Het is een mix van goed nieuws en slecht nieuws.

  • Goed nieuws: De robots zijn uitstekend in het leren van de "grammatica". Ze kunnen de code schrijven die geen fouten geeft. Ze weten precies welke woorden ze moeten gebruiken.
  • Slecht nieuws 1 (De "Schijnbare" Succes): Veel robots schrijven code die compileert (werkt), maar niet klopt. Het is alsof ze een auto bouwen met de wielen aan de verkeerde kant. De motor start, maar de auto rijdt achteruit. De robots zijn goed in de vorm, maar slecht in de logica.
  • Slecht nieuws 2 (Geen Expertise): Als je de robot geen hints geeft (Niveau 3), zakken de scores dramatisch. Ze weten niet hoe ze complexe, speciale taken (zoals wetenschappelijke simulaties) moeten aanpakken. Ze missen de "specialistische kennis" van een echte ingenieur.
  • Slecht nieuws 3 (Verspilling): Zelfs de beste robots bouwen "raceauto's" die maar 40% van het vermogen van de motor gebruiken. Ze zijn veilig, maar niet snel. Ze weten niet hoe ze de videokaart optimaal moeten benutten.

Conclusie

CUDABench laat zien dat onze slimme AI's momenteel meer lijken op beginners die een bouwpakket volgen dan op meesterbouwers. Ze kunnen de instructies lezen en de onderdelen in elkaar zetten, maar als je ze vraagt om een auto te ontwerpen die snel rijdt, falen ze vaak.

Ze hebben nog veel te leren voordat ze echte experts worden in het bouwen van snelle, krachtige software voor grafische kaarten. Maar nu hebben we eindelijk een goede meetlat (CUDABench) om te zien hoe ver ze nog moeten komen.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →