Towards Cold-Start Drafting and Continual Refining: A Value-Driven Memory Approach with Application to NPU Kernel Synthesis

Het paper introduceert EvoKernel, een zelfevoluerend agentiek framework dat door middel van een waardegedreven geheugenaanpak en versterkingsleer de uitdagingen van het ontbreken van trainingsdata voor NPU-kernels oplost, waardoor de correctheid van generatieve modellen van 11% naar 83% stijgt en de uitvoeringssnelheid met een factor 3,6 verbetert.

Yujie Zheng, Zhuo Li, Shengtao Zhang, Hanjing Wang, Junjie Sheng, Jiaqian Wang, Junchi Yan, Weinan Zhang, Ying Wen, Bo Tang, Muning Wen

Gepubliceerd 2026-03-12
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een meester-kok bent die gewend is om te koken in een supermoderne keuken met alle ingrediënten bij de hand (zoals CUDA, de standaard voor grafische kaarten van NVIDIA). Je kunt elke gerechtsoogst perfect maken.

Maar nu moet je plotseling koken in een heel nieuwe, onbekende keuken (zoals NPU, een speciaal type chip voor AI van Huawei), waar er bijna geen ingrediënten zijn, de recepten in een vreemde taal zijn geschreven en niemand je kan vertellen of het gerecht lukt of niet. Dit is het probleem waar kunstmatige intelligentie (LLMs) tegenaan loopt: ze zijn geweldig met wat ze al weten, maar falen volledig als ze iets nieuws moeten leren zonder voorbeelden.

Dit paper introduceert EvoKernel, een slimme oplossing die dit probleem oplost. Hier is hoe het werkt, vertaald naar alledaagse taal:

1. Het Probleem: De "Muur van Geen Gegevens"

Normaal gesproken leren AI-modellen door miljoenen voorbeelden te lezen. Maar voor nieuwe hardware (zoals NPU's) bestaan die voorbeelden niet. Het is alsof je een kok vraagt om een gerecht te maken, maar je geeft hem geen recept, geen ingrediëntenlijst en geen foto van het eindresultaat. Als je de AI gewoon vraagt om het te proberen, maakt hij een complete rommeltje.

2. De Oplossing: Een Slimme Leerling met een "Gedachtenboek"

In plaats van de AI te dwingen om alles opnieuw te leren (wat duur en moeilijk is), bouwen de auteurs een systeem dat leert van zijn eigen fouten en successen. Ze noemen dit een "Zelf-evoluerend Agent".

Stel je dit voor als een slimme leerling die een gedachtenboek (memory) bijhoudt:

  • Fase 1: De Eerste Poging (Het Schetsen)
    De AI probeert het recept te schrijven. Het lukt vaak niet. Maar in plaats van te stoppen, kijkt de AI in zijn gedachtenboek. Het zoekt naar eerdere pogingen die bijna werkten. Het gebruikt een slimme truc: het vraagt zich af: "Welk stukje informatie uit mijn boek helpt me nu het meest om dit recept werkend te krijgen?"
    Dit noemen ze Waarde-gedreven Zoeken. Het is alsof de AI niet zomaar bladeren doorboekt, maar direct naar de pagina springt die de meeste kans van slagen biedt.

  • Fase 2: Het Verfijnen (Het Optimaliseren)
    Zodra het recept eindelijk werkt (het gerecht is eetbaar), is het nog niet klaar. Het moet snel zijn. De AI begint nu te experimenteren: "Als ik dit ingrediënt iets sneller snijd, gaat het gerecht dan sneller?"
    Ook hier kijkt het in zijn boek: "Welk eerdere experiment heeft me geholpen om sneller te worden?" Het bouwt voort op wat het al weet, in plaats van bij nul te beginnen.

3. De Magie: Waarom werkt dit zo goed?

Het geheim zit hem in twee dingen:

  1. Het Gedachtenboek groeit mee: Elke keer als de AI iets leert (of een fout maakt), schrijft het dit op in zijn boek. Dit boek wordt steeds slimmer. Als de AI later een nieuw, moeilijk gerecht moet maken, kan het zeggen: "Oh, ik heb dit eerder gezien bij een ander gerecht, dat werkte zo!"
  2. Het leert van elkaar: Als de AI een makkelijk gerecht (zoals een simpele salade) perfect heeft gemaakt, kan die kennis worden gebruikt om een heel moeilijk gerecht (zoals een complexe soufflé) te maken. Het systeem deelt kennis tussen verschillende taken.

4. Het Resultaat: Van Rommeltje naar Meesterkok

In de tests hebben ze gekeken hoe goed AI's nieuwe code konden schrijven voor deze speciale chips.

  • Zonder EvoKernel: De beste AI's slaagden maar in 11% van de gevallen. Ze waren compleet verloren.
  • Met EvoKernel: De AI's slaagden in 83% van de gevallen!
  • Snelheid: Niet alleen werkte het, het was ook 3,6 keer sneller dan de eerste poging, omdat de AI continu bleef verbeteren.

Samenvattend

Dit paper laat zien dat je AI niet hoeft te "fijnen" (een duur en zwaar proces) om het iets nieuws te leren. In plaats daarvan geef je de AI een slim systeem om zijn eigen ervaringen te verzamelen en te gebruiken.

Het is alsof je een kok niet een nieuw recept geeft, maar hem een slim dagboek geeft waarin hij zijn eigen fouten en successen noteert. Naarmate hij meer kookt, wordt zijn dagboek rijker, en wordt hij steeds beter in het bedenken van nieuwe gerechten, zelfs als hij nog nooit eerder in die specifieke keuken heeft gewerkt.

De kernboodschap: In een wereld waar nieuwe technologieën (zoals nieuwe AI-chips) sneller komen dan er data voor bestaat, is de oplossing niet "meer data verzamelen", maar "slimmer leren van wat je al hebt".