LLM-ProS: Analyzing Large Language Models' Performance in Competitive Problem Solving

Dit paper introduceert LLM-ProS, een nieuwe evaluatiemethode die de prestaties van toonaangevende grote taalmodellen analyseert op ICPC-wedstrijdproblemen om hun redeneervermogen, nauwkeurigheid en efficiëntie te benchmarken.

Md Sifat Hossain, Anika Tabassum, Md. Fahim Arefin, Tarannum Shaila Zaman

Gepubliceerd 2026-03-03
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een groep slimme robots hebt die alles kunnen lezen en schrijven. Ze zijn zo slim dat ze zelfs complexe wiskundepuzzels en programmeertaal kunnen begrijpen. Maar de vraag is: kunnen ze die puzzels ook echt oplossen als ze ze nog nooit eerder hebben gezien?

Dat is precies wat dit onderzoek, genaamd LLM-ProS, heeft onderzocht. De onderzoekers hebben een soort "grote test" opgezet, waarbij ze de slimste robots ter wereld een uitdaging gaven: het oplossen van de moeilijkste programmeeropgaven ter wereld, zoals die van het ICPC (een soort Olympiade voor programmeurs).

Hier is hoe het werkt, vertaald naar alledaags taal:

1. De Test: Een "Nieuwe" Puzzelbox

De onderzoekers pakten 166 zeer moeilijke programmeeropgaven uit de afgelopen 14 jaar (van 2011 tot 2024).

  • De truc: Ze gebruikten opgaven uit 2024 die de robots waarschijnlijk nog nooit hadden gelezen.
  • De reden: Als een robot een antwoord uit zijn geheugen plukt omdat hij het al eerder heeft gezien, is dat geen slimheid, maar gewoon "uit het hoofd leren". Door nieuwe opgaven te gebruiken, kijken ze echt of de robot kan nadenken.

2. De Deelnemers: De Robot-Teamleden

Ze hebben vijf verschillende modellen getest, elk met een eigen persoonlijkheid:

  • De Allrounders (GPT-4o, Mistral Large, Llama-3.1): Dit zijn de robots die alles kunnen: een gedicht schrijven, een e-mail typen en een beetje coderen. Ze zijn als een polymath (een alleskunner) die goed is in veel dingen, maar misschien niet de beste in één specifieke, moeilijke sport.
  • De Specialisten (o1-mini en o1-preview): Dit zijn de nieuwe, gespecialiseerde robots. Ze zijn speciaal getraind om stap-voor-stap te denken (zoals een mens die een wiskundeprobleem oplost op een kladblok). Ze zijn als een schaakgrootmeester die elke zet zorgvuldig plant voordat hij de stukken beweegt.

3. Het Experiment: De "Codeforces" Arena

De robots kregen de opgaven en moesten hun code (hun oplossing) inleveren bij een online platform dat automatisch checkt of het werkt.

  • De uitslag: Het platform gaf een oordeel: "Goed gedaan!" (Accepted) of "Fout!" (zoals "Verkeerd antwoord" of "Tijd te lang").

4. Wat bleek er? De Verbluffende Resultaten

Hier komen de resultaten, vertaald in simpele termen:

  • De Allrounders vielen flink door de mand:
    De bekende robots (zoals GPT-4o) haalden 0% succes op de nieuwe, moeilijke opgaven. Het was alsof je een meesterkok vraagt om een recept te bedenken voor een gerecht dat hij nog nooit heeft gezien, en hij probeert het te kopiëren van een oud recept dat niet past. Ze maakten veel fouten, vaak omdat ze de code niet goed compileerden (het "kookgerei" werkte niet) of omdat het antwoord simpelweg verkeerd was.

  • De Specialisten (o1-robots) stonden bovenaan:
    De o1-robots waren de enige die het redelijk goed deden. Ze haalden ongeveer 15% tot 25% succes.

    • Hoe deden ze dat? Ze gebruikten een techniek genaamd "Chain of Thought" (Denkrij). In plaats van direct een antwoord te schreeuwen, dachten ze eerst na: "Oké, eerst dit, dan dat, en let op deze valkuil." Ze waren als een detective die alle aanwijzingen verzamelt voordat hij de dader aanwijst.

5. De Grootste Leraar: "Geheugen vs. Inzicht"

Het onderzoek liet zien dat veel robots eigenlijk gewoon uit het hoofd hebben geleerd wat ze al eerder hebben gezien.

  • Als de opgaven uit oude jaren kwamen (die de robots misschien kenden), deden ze het soms goed.
  • Maar zodra het een helemaal nieuwe opgave was (2024), zakte hun prestatie drastisch.
  • De o1-robots waren beter in het algemeen toepassen van logica, zelfs op nieuwe dingen.

6. De Conclusie in Eén Zin

Dit onderzoek laat zien dat als je een robot echt slim wilt maken voor moeilijke problemen, je hem niet alleen moet laten "lezen" (zoals een allround model), maar hem moet leren stap-voor-stap te redeneren (zoals de o1-modellen).

Kort samengevat:
Stel je voor dat je een groep studenten een examen geeft. De meeste studenten (de allrounders) proberen het antwoord te raden of te kopiëren van hun notities, en zakken. Een paar studenten (de o1-robots) nemen de tijd om de vraag echt te begrijpen, te plannen en stap voor stap op te lossen. Zij zijn de enigen die slagen.

De onderzoekers zeggen nu: "We moeten meer robots maken die leren hoe ze moeten nadenken, in plaats van alleen maar hoe ze moeten onthouden."