Test-Time Adaptation via Many-Shot Prompting: Benefits, Limits, and Pitfalls

Diese Studie untersucht die Wirksamkeit und Grenzen des Many-Shot-Promptings als Testzeit-Anpassungsmethode für Large Language Models und zeigt, dass sie zwar bei strukturierten Aufgaben mit hohem Informationsgewinn effektiv ist, jedoch bei offenen Generierungsaufgaben stark von der Auswahlstrategie abhängt und oft nur begrenzte Vorteile bietet.

Shubhangi Upasani, Chen Wu, Jay Rainton, Bo Li, Changran Hu, Qizheng Zhang, Urmish Thakker2026-03-09🤖 cs.LG

ReflexiCoder: Teaching Large Language Models to Self-Reflect on Generated Code and Self-Correct It via Reinforcement Learning

Die Arbeit stellt ReflexiCoder vor, ein Reinforcement-Learning-Framework, das Large Language Models befähigt, Code autonom durch internalisierte Selbstreflexion und Selbstkorrektur zu verbessern, wodurch sie bei algorithmischen Aufgaben neue State-of-the-Art-Ergebnisse erzielen und dabei deutlich token-effizienter sind als herkömmliche Ansätze.

Juyong Jiang, Jiasi Shen, Sunghun Kim, Kang Min Yoo, Jeonghoon Kim, Sungju Kim2026-03-09🤖 cs.LG

Mitigating Bias in Concept Bottleneck Models for Fair and Interpretable Image Classification

Die vorgestellte Arbeit verbessert die Fairness und Interpretierbarkeit von Concept Bottleneck Models durch den Einsatz von drei neuen Techniken zur Reduzierung von Informationslecks, dem Entfernen voreingenommener Konzepte und adversariellem Debiasing, wodurch signifikant bessere Ergebnisse im Kompromiss zwischen Fairness und Leistung erzielt werden.

Schrasing Tong, Antoine Salaun, Vincent Yuan, Annabel Adeyeri, Lalana Kagal2026-03-09🤖 cs.LG

Reference-guided Policy Optimization for Molecular Optimization via LLM Reasoning

Die Arbeit stellt RePO vor, einen Optimierungsansatz, der durch die Kombination von verstärkendem Lernen zur Förderung der Exploration und einer referenzgesteuerten Überwachung zur Stabilisierung des Trainings die Leistung von Large Language Models bei der molekularen Optimierung ohne schrittweise Trajektoriendaten signifikant verbessert.

Xuan Li, Zhanke Zhou, Zongze Li, Jiangchao Yao, Yu Rong, Lu Zhang, Bo Han2026-03-09🤖 cs.AI

A Persistent-State Dataflow Accelerator for Memory-Bound Linear Attention Decode on FPGA

Die Autoren stellen einen FPGA-beschleuniger vor, der durch die persistente Speicherung des GDN-Zustands auf dem Chip die speichergebundenen Engpässe bei der Dekodierung linearer Aufmerksamkeit überwindet und damit im Vergleich zu einer NVIDIA H100-GPU eine 4,5-fache Geschwindigkeitssteigerung sowie eine bis zu 60-fach höhere Energieeffizienz pro Token erreicht.

Neelesh Gupta, Peter Wang, Rajgopal Kannan, Viktor K. Prasanna2026-03-09🤖 cs.LG

Implicit Style Conditioning: A Structured Style-Rewrite Framework for Low-Resource Character Modeling

Die Arbeit stellt ein strukturiertes Stil-Umschreibungs-Framework vor, das durch explizite Entzerrung lexikalischer, syntaktischer und pragmatischer Merkmale sowie implizites Stil-Conditioning mittels CoT-Distillation es kleinen Sprachmodellen ermöglicht, auch bei geringen Datenmengen konsistente und dateneffiziente Charakterrollen zu generieren, die größere Baseline-Modelle übertreffen.

Chanhui Zhu2026-03-09🤖 cs.LG

Who We Are, Where We Are: Mental Health at the Intersection of Person, Situation, and Large Language Models

Diese Studie entwickelt interpretierbare Modelle, die psychologische Theorien über die Interaktion von Person und Situation mit Sprachdaten kombinieren, um das dynamische Wohlbefinden in sozialen Medien präziser und nachvollziehbarer zu erfassen als rein embedding-basierte Ansätze.

Nikita Soni, August Håkan Nilsson, Syeda Mahwish, Vasudha Varadarajan, H. Andrew Schwartz, Ryan L. Boyd2026-03-09🤖 cs.AI

Omni-Masked Gradient Descent: Memory-Efficient Optimization via Mask Traversal with Improved Convergence

Die Arbeit stellt Omni-Masked Gradient Descent (OMGD) vor, eine speichereffiziente Optimierungsmethode für das Training großer Sprachmodelle, die durch eine nichtkonvexe Konvergenzanalyse eine verbesserte Iterationskomplexität von O~(ϵ3)\tilde{\mathcal{O}}(\epsilon^{-3}) garantiert und sich nahtlos in bestehende Optimierer integrieren lässt.

Hui Yang, Tao Ren, Jinyang Jiang, Wan Tian, Yijie Peng2026-03-09🤖 cs.LG