RePo: Language Models with Context Re-Positioning
Het paper introduceert RePo, een nieuw mechanisme dat de extrinsieke cognitieve belasting in Large Language Models verlaagt door token-posities dynamisch te herschikken op basis van contextuele afhankelijkheden in plaats van een vaste lineaire volgorde, wat leidt tot verbeterde prestaties bij taken met ruis, gestructureerde data en lange contexten.