RePo: Language Models with Context Re-Positioning

Het paper introduceert RePo, een nieuw mechanisme dat de extrinsieke cognitieve belasting in Large Language Models verlaagt door token-posities dynamisch te herschikken op basis van contextuele afhankelijkheden in plaats van een vaste lineaire volgorde, wat leidt tot verbeterde prestaties bij taken met ruis, gestructureerde data en lange contexten.

Huayang Li, Tianyu Zhao, Deng Cai, Richard Sproat

Gepubliceerd 2026-03-06
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Titel: REPO: De slimme bibliothecaris van de AI

Stel je voor dat een grote taalmodel (zoals de AI die je nu gebruikt) een enorme bibliotheek is. Wanneer je een vraag stelt, moet de AI snel door deze bibliotheek bladeren om het juiste antwoord te vinden.

In de huidige wereld van AI is deze bibliotheek echter een beetje raar georganiseerd. De boeken (de woorden in je vraag) liggen in een stijve, rechte rij: boek 1, boek 2, boek 3, enzovoort. Het maakt voor de AI niet uit of boek 100 eigenlijk heel belangrijk is voor boek 2, of dat boek 50 helemaal irrelevant is. De AI moet gewoon in die vaste volgorde zoeken.

De auteurs van dit paper noemen dit een cognitieve last. Het is alsof je probeert te studeren in een kamer waar de lichten continu knipperen en de meubels in de weg staan. Je hersenen (de AI) moeten veel energie steken in het navigeren door die rommel, in plaats van te focussen op het echte probleem.

Wat is REPO?

REPO (Context Re-Positioning) is als het invoeren van een slimme, dynamische bibliothecaris.

In plaats van de boeken in een stijve rij te laten liggen, mag deze bibliothecaris ze verplaatsen op basis van wat er nodig is.

  • Als boek 100 en boek 2 samen een verhaal vormen, schuift de bibliothecaris ze dicht bij elkaar.
  • Als boek 50 alleen maar ruis is (onzin), schuift hij die naar de achterkant of maakt hij er minder aandacht voor.

De AI leert dus niet alleen wat er in de boeken staat, maar ook waar ze het beste kunnen liggen om het antwoord te vinden.

Hoe werkt dit in de praktijk?

De onderzoekers hebben een klein, slim hulpmiddel (een module genaamd fϕf_\phi) toegevoegd aan de AI. Dit hulpmiddel kijkt naar elke zin en vraagt zich af: "Waar hoort dit woord eigenlijk thuis in dit verhaal?"

Het resultaat is drie keer zo goed als de oude methode in drie specifieke situaties:

  1. De "Nooit gevonden" zoektocht (Noisy Context):
    Stel je voor dat je in een stapel van 10.000 documenten moet zoeken naar één specifiek feit (een "naald in een hooiberg"). De oude AI raakt vaak de weg kwijt door alle ruis. De REPO-AI schuift die ene belangrijke naald echter direct naar de voorkant van de stapel, zodat hij hem direct ziet.

  2. De ingewikkelde tabel (Structured Data):
    Tabellen zijn lastig voor AI omdat ze lijnen en kolommen hebben, maar AI leest tekst als een lange zin. REPO herkent de structuur van de tabel en ordent de woorden zo dat de AI de samenhang (bijv. welke waarde bij welke rij hoort) beter begrijpt.

  3. Het lange verhaal (Long Context):
    Bij heel lange teksten raakt de oude AI vaak de draad kwijt. REPO houdt de belangrijke stukken dicht bij elkaar, zelfs als ze in de tekst ver uit elkaar staan. Het is alsof je een lange film bekijkt en de belangrijkste scènes automatisch samenvoegt tot een korte, begrijpelijke samenvatting.

Waarom is dit zo cool?

Het mooiste is dat REPO niet de hele AI moet herschrijven. Het is als een kleine, slimme plugin die je op de bestaande machine kunt zetten.

  • Het kost bijna geen extra rekenkracht (snelheid).
  • Het werkt zelfs beter bij hele grote modellen.
  • Het leert zichzelf: de AI ontdekt vanzelf welke volgorde het beste werkt, zonder dat mensen handmatig regels moeten schrijven.

Samenvattend

Vroeger was de AI als een student die in een rommelige kamer probeerde te leren, waarbij de meubels in de weg stonden. Met REPO krijgt die student een slimme assistent die de kamer direct op orde brengt, de belangrijke boeken dicht bij elkaar zet en de rommel weghaalt. Hierdoor kan de AI sneller, slimmer en betrouwbaarder antwoorden geven, zelfs bij hele lange of rommelige vragen.

De onderzoekers hebben hun code en modellen openbaar gemaakt, zodat iedereen dit slimme "hulpje" kan gaan gebruiken.