Recursive Language Models Meet Uncertainty: The Surprising Effectiveness of Self-Reflective Program Search for Long Context
Die Arbeit stellt SRLM vor, ein Framework, das durch unsicherheitsbewusste Selbstreflexion und die Nutzung intrinsischer Signale wie Selbstkonsistenz und verbale Konfidenz die Leistung von Sprachmodellen bei langen Kontexten verbessert, indem es die Notwendigkeit expliziter rekursiver Mechanismen überwindet und selbst bei kurzen Kontexten sowie semantisch anspruchsvollen Aufgaben konsistent bessere Ergebnisse als herkömmliche rekursive Ansätze erzielt.