EvolvR: Self-Evolving Pairwise Reasoning for Story Evaluation to Enhance Generation

In dit artikel wordt EvolvR voorgesteld, een zelf-evoluerend framework dat via gepersonaliseerde Chain-of-Thought-data en multi-agent filtering nauwkeurige paarwijze redenering voor verhalen-evaluatie mogelijk maakt, wat leidt tot state-of-the-art prestaties op evaluatiebenchmarks en de kwaliteit van gegenereerde verhalen aanzienlijk verbetert.

Xinda Wang, Zhengxu Hou, Yangshijie Zhang, Bingren Yan, Jialin Liu, Chenzhuo Zhao, Zhibo Yang, Bin-Bin Yang, Feng Xiao

Gepubliceerd 2026-03-17
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een schrijver bent die net een kort verhaal heeft geschreven. Je geeft het aan een computer om te beoordelen. De computer zegt: "Dit is een 3 van de 5." Maar waarom? Zegt de computer: "Omdat het saai was" of "Omdat de zinnen te lang waren"? Vaak is het antwoord van de computer vaag, onlogisch of gewoon raadselachtig. Het is alsof je een leraar hebt die je een cijfer geeft, maar weigert te vertellen wat je goed of fout hebt gedaan.

Dit is het probleem dat het onderzoek EvolvR probeert op te lossen. Hier is een simpele uitleg van wat ze hebben gedaan, vertaald naar alledaagse taal:

1. Het Probleem: Computers die niet goed kunnen "redeneren"

Huidige slimme computers (LLMs) zijn geweldig in het schrijven van verhalen, maar ze zijn vaak slecht in het beoordelen ervan.

  • De "Prompt" methode: Als je een dure, gesloten computer (zoals GPT-4) vraagt om te beoordelen, is het antwoord soms willekeurig. Het is alsof je een willekeurige leraar vraagt om te corrigeren; soms is hij streng, soms mild, zonder duidelijke regels.
  • De "Training" methode: Als je een openbare computer (zoals Qwen) traint op bestaande data, leert hij vaak alleen maar de antwoorden te raden, zonder echt te begrijpen waarom iets goed of slecht is. Hij leert het antwoord, maar niet de logica erachter.

2. De Oplossing: EvolvR (De "Zelf-evoluerende" Beoordelaar)

De auteurs hebben een nieuw systeem bedacht, EvolvR. Ze noemen het "Zelf-evoluerend Paarsgewijs Redeneren". Laten we dat opsplitsen in drie stappen met een analogie:

Stap 1: De "Persoonlijkheids-Workshop" (Multi-Persona)

Stel je voor dat je een schrijver bent en je wilt feedback op je verhaal. In plaats van één leraar, haal je een hele klas van experts bij elkaar:

  • De Academicus (die op structuur let),
  • De Kunstenaar (die op emotie let),
  • De Scherptongige Criticus (die alles bekritiseert),
  • De Pragmaticus (die kijkt of het werkt).

EvolvR laat de computer in deze verschillende rollen spelen. Ze schrijven allemaal een verslag (een "Chain of Thought") over waarom verhaal A beter is dan verhaal B. Ze doen dit niet zomaar, maar ze koppelen hun redenering direct aan een cijfer. Dit creëert een enorme berg aan trainingsdata waarin de computer leert hoe je moet redeneren.

Stap 2: De "Gymzaal voor Logica" (Self-Evolving Filter)

Niet alle verslagen van die "experts" zijn goed. Sommige zijn slordig, andere tegenstrijdig.
EvolvR gebruikt een slim proces om de beste redeneringen eruit te filteren, alsof je een sportteam traint:

  1. De Regels-Check: Kijkt de computer: "Past het cijfer dat ik heb gegeven wel bij mijn verhaal?" Als het verhaal zegt "dit is slecht" maar het cijfer is 5, dan is het fout. Weg ermee.
  2. De Zelf-Verbetering: De computer leest zijn eigen verslag en vraagt: "Kan ik dit duidelijker uitleggen?" Hij herschrijft het om logischer te worden.
  3. De Aanval (Self-Attack): Dit is het coolste deel. De computer probeert zichzelf te "bedriegen". Hij zegt: "Stel dat ik dit verhaal een 1 geef in plaats van een 5. Klopt mijn redenering dan nog?" Als de redenering ook voor een 1 zou werken, is hij te vaag en wordt hij weggegooid. Alleen de redeneringen die alleen voor het juiste cijfer werken, blijven over.
  4. Het Zekerheids-Check: De computer moet er 100% zeker van zijn dat zijn antwoord klopt.

Stap 3: De "Meester-Leraar" (De Reward Model)

Na al dit trainen en filteren hebben ze een computer die niet alleen cijfers geeft, maar dat doet met een diep, logisch begrip van verhalen. Ze gebruiken deze computer nu als een beloningssysteem voor een andere computer die verhalen schrijft.

Stel je voor dat de schrijver-computer een verhaal maakt. De EvolvR-computer leest het, denkt na, en zegt: "Dit stukje hier is geweldig, maar dit stukje hier mist diep inzicht." De schrijver-computer krijgt een "beloning" als hij het verhaal verbetert. Door dit duizenden keren te doen, leert de schrijver-computer om echt goede, complexe en emotionele verhalen te schrijven.

Waarom is dit belangrijk?

  • Betere Verhalen: Omdat de beoordelaar echt begrijpt waarom een verhaal werkt, kan hij de schrijver-computer veel beter sturen. De resultaten tonen aan dat de verhalen die hierdoor ontstaan, menselijker, creatiever en logischer zijn.
  • Betrouwbare Beoordeling: Het lost het probleem op van computers die willekeurige cijfers geven. EvolvR geeft een cijfer dat logisch onderbouwd is.
  • Open Source: Ze hebben dit gedaan met openbare modellen, wat betekent dat iedereen dit kan gebruiken, niet alleen bedrijven met dure, gesloten systemen.

Samenvattend

EvolvR is als het trainen van een super-schrijver door eerst een super-criticus te creëren. Die criticus leert niet door simpelweg antwoorden te memoriseren, maar door zichzelf constant uit te dagen, te verbeteren en te filteren tot hij de perfecte logica heeft gevonden. Met die perfecte logica kan hij vervolgens andere schrijvers helpen om hun beste werk te leveren.

Het is een stap van "computers die gokken" naar "computers die echt begrijpen".

Verdrinkt u in papers in uw vakgebied?

Ontvang dagelijkse digests van de nieuwste papers die bij uw onderzoekswoorden passen — met technische samenvattingen, in uw taal.

Probeer Digest →