Query-focused and Memory-aware Reranker for Long Context Processing
Les auteurs proposent un nouveau cadre de réordonnancement léger et efficace qui exploite les scores d'attention de modèles de petite taille pour estimer la pertinence des passages, surpassant les méthodes actuelles sur divers benchmarks, notamment LoCoMo, tout en permettant un apprentissage sans supervision explicite et des extensions flexibles.