Evolving Demonstration Optimization for Chain-of-Thought Feature Transformation

Deze paper introduceert een framework dat de prestaties van Large Language Models bij Feature Transformation verbetert door een gesloten lus te gebruiken waarin trajecten van succesvolle transformaties worden geëvolueerd en geselecteerd via diversiteitsbewuste contextoptimalisatie, wat leidt tot superieure resultaten op diverse tabulaire benchmarks.

Xinyuan Wang, Kunpeng Liu, Arun Vignesh Malarkkan, Yanjie Fu

Gepubliceerd 2026-03-12
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een kok bent die een heerlijk gerecht moet bereiden (het oplossen van een data-probleem). Je hebt een kast vol met ingrediënten (de oorspronkelijke gegevens) en een setje keukenhulpmiddelen (rekenoperaties zoals optellen, delen, worteltrekken).

Het doel is om nieuwe, betere combinaties van ingrediënten te bedenken die het gerecht nog lekkerder maken. Dit noemen onderzoekers Functie-Transformatie.

Het probleem is dat er zo ontzettend veel manieren zijn om ingrediënten te combineren, dat het zoeken naar de perfecte mix als het zoeken naar een speld in een hooiberg voelt.

Het oude probleem: De statische receptenboek

Tot nu toe probeerden computers dit op twee manieren:

  1. Gokken: Ze probeerden willekeurig combinaties, maar dat duurde eeuwen en leverde vaak onbruikbare resultaten op (zoals "sinaasappelsap met zout").
  2. LLM's (Slimme AI's): Mensen vroegen slimme AI's (zoals ChatGPT) om nieuwe recepten. Maar ze gaven de AI een vast receptenboek met voorbeelden. Dit boekje werd nooit aangepast. Als de AI een goed idee had, werd dat niet opgeslagen in het boekje voor de volgende keer. Het resultaat was vaak saai, herhalend, of niet helemaal geschikt voor het specifieke gerecht.

De nieuwe oplossing: "Evolving Demonstration Optimization"

De auteurs van dit paper (Xinyuan Wang en collega's) hebben een slimme manier bedacht om dit aan te pakken. Ze behandelen de voorbeelden die ze aan de AI geven niet als een statisch boekje, maar als een levende, groeiende ervaring.

Hier is hoe hun methode werkt, stap voor stap, met een analogie:

Stap 1: De Verkenning (De proefkeuken)

Eerst laten ze een slimme robot (Reinforcement Learning) in de keuken rennen. Deze robot mag wild experimenteren met ingrediënten.

  • Wat gebeurt er? De robot maakt duizenden combinaties.
  • De filter: Alleen de combinaties die het gerecht daadwerkelijk lekkerder maken, worden geselecteerd. De rest wordt weggegooid.
  • Het resultaat: Een verzameling van "bewezen winnende combinaties".

Stap 2: De Opfrissing (Het kookboek herschrijven)

Nu nemen ze die winnende combinaties en maken er een Chain-of-Thought (CoT)-verhaal van.

  • De analogie: In plaats van alleen het eindresultaat te tonen ("Doe dit en je krijgt een taart"), laten ze de AI zien hoe je er komt. "Eerst heb je meel, dan voeg je suiker toe, dan bak je het..."
  • Ze vullen de gaten op: Als er een stap mist tussen twee goede combinaties, vraagt de AI aan zichzelf: "Wat zou er tussenin kunnen werken?"
  • Ze zorgen voor diversiteit: Ze kiezen niet alleen de lekkerste taarten, maar ook taarten met verschillende smaken (chocolade, fruit, citroen), zodat het boekje niet saai wordt. Ze verwijderen dubbele recepten.

Stap 3: De Cyclus (De levende keuken)

Dit is het magische deel.

  1. Ze geven dit verbeterde, levende boekje aan de AI.
  2. De AI maakt een nieuw recept op basis van deze slimme voorbeelden.
  3. Ze testen het nieuwe recept.
  4. Als het werkt: Het nieuwe recept wordt toegevoegd aan het boekje, en het boekje wordt weer opgefrist (Stap 2).
  5. Als het niet werkt: Het wordt weggegooid.

Dit proces herhaalt zich. Het boekje met voorbeelden evolueert mee. Het wordt steeds slimmer, diverser en specifieker voor het probleem dat je probeert op te lossen.

Waarom is dit zo goed?

  • Geen statisch boekje: De AI leert van zijn eigen succes. Elke keer wordt het boekje met voorbeelden beter.
  • Stabiliteit: Omdat de AI niet meer "blind" gokt, maar werkt met bewezen, geoptimaliseerde voorbeelden, zijn de resultaten veel betrouwbaarder.
  • Alles werkt: Of je nu een dure AI gebruikt of een gratis, open-source versie; deze methode werkt voor iedereen omdat het de instructies (de context) optimaliseert, niet de AI zelf.

Samenvattend

Stel je voor dat je een student wilt leren wiskunde.

  • Oude manier: Je geeft de student één vast boekje met voorbeelden en zegt: "Leer dit uit."
  • Nieuwe manier: Je geeft de student een boekje met voorbeelden die je elke dag aanpast op basis van wat de student goed deed gisteren. Je voegt nieuwe, slimme stappen toe en verwijdert de verwarrende dingen. De student wordt elke dag slimmer omdat het lesmateriaal meegroeit met zijn kennis.

Dit paper toont aan dat voor AI's, het optimaliseren van de lesmateriaal (de context) veel krachtiger is dan het proberen om de AI zelf te herschrijven.