Query-focused and Memory-aware Reranker for Long Context Processing
Este trabajo presenta un marco de reordenamiento ligero y eficiente que aprovecha las puntuaciones de atención de modelos de lenguaje grandes para estimar la relevancia entre consultas y pasajes, logrando un rendimiento superior al estado del arte en tareas de comprensión de contexto largo y memoria mediante el uso de información holística y puntuaciones de relevancia continuas.