Mitigating Bias in Concept Bottleneck Models for Fair and Interpretable Image Classification

Die vorgestellte Arbeit verbessert die Fairness und Interpretierbarkeit von Concept Bottleneck Models durch den Einsatz von drei neuen Techniken zur Reduzierung von Informationslecks, dem Entfernen voreingenommener Konzepte und adversariellem Debiasing, wodurch signifikant bessere Ergebnisse im Kompromiss zwischen Fairness und Leistung erzielt werden.

Schrasing Tong, Antoine Salaun, Vincent Yuan, Annabel Adeyeri, Lalana Kagal2026-03-09🤖 cs.LG

Reference-guided Policy Optimization for Molecular Optimization via LLM Reasoning

Die Arbeit stellt RePO vor, einen Optimierungsansatz, der durch die Kombination von verstärkendem Lernen zur Förderung der Exploration und einer referenzgesteuerten Überwachung zur Stabilisierung des Trainings die Leistung von Large Language Models bei der molekularen Optimierung ohne schrittweise Trajektoriendaten signifikant verbessert.

Xuan Li, Zhanke Zhou, Zongze Li, Jiangchao Yao, Yu Rong, Lu Zhang, Bo Han2026-03-09🤖 cs.AI

A Persistent-State Dataflow Accelerator for Memory-Bound Linear Attention Decode on FPGA

Die Autoren stellen einen FPGA-beschleuniger vor, der durch die persistente Speicherung des GDN-Zustands auf dem Chip die speichergebundenen Engpässe bei der Dekodierung linearer Aufmerksamkeit überwindet und damit im Vergleich zu einer NVIDIA H100-GPU eine 4,5-fache Geschwindigkeitssteigerung sowie eine bis zu 60-fach höhere Energieeffizienz pro Token erreicht.

Neelesh Gupta, Peter Wang, Rajgopal Kannan, Viktor K. Prasanna2026-03-09🤖 cs.LG

Implicit Style Conditioning: A Structured Style-Rewrite Framework for Low-Resource Character Modeling

Die Arbeit stellt ein strukturiertes Stil-Umschreibungs-Framework vor, das durch explizite Entzerrung lexikalischer, syntaktischer und pragmatischer Merkmale sowie implizites Stil-Conditioning mittels CoT-Distillation es kleinen Sprachmodellen ermöglicht, auch bei geringen Datenmengen konsistente und dateneffiziente Charakterrollen zu generieren, die größere Baseline-Modelle übertreffen.

Chanhui Zhu2026-03-09🤖 cs.LG

Who We Are, Where We Are: Mental Health at the Intersection of Person, Situation, and Large Language Models

Diese Studie entwickelt interpretierbare Modelle, die psychologische Theorien über die Interaktion von Person und Situation mit Sprachdaten kombinieren, um das dynamische Wohlbefinden in sozialen Medien präziser und nachvollziehbarer zu erfassen als rein embedding-basierte Ansätze.

Nikita Soni, August Håkan Nilsson, Syeda Mahwish, Vasudha Varadarajan, H. Andrew Schwartz, Ryan L. Boyd2026-03-09🤖 cs.AI

Omni-Masked Gradient Descent: Memory-Efficient Optimization via Mask Traversal with Improved Convergence

Die Arbeit stellt Omni-Masked Gradient Descent (OMGD) vor, eine speichereffiziente Optimierungsmethode für das Training großer Sprachmodelle, die durch eine nichtkonvexe Konvergenzanalyse eine verbesserte Iterationskomplexität von O~(ϵ3)\tilde{\mathcal{O}}(\epsilon^{-3}) garantiert und sich nahtlos in bestehende Optimierer integrieren lässt.

Hui Yang, Tao Ren, Jinyang Jiang, Wan Tian, Yijie Peng2026-03-09🤖 cs.LG

Preventing Learning Stagnation in PPO by Scaling to 1 Million Parallel Environments

Die Autoren zeigen, dass Lernstagnation bei PPO durch eine Diskrepanz zwischen Stichproben-Schätzungen und dem wahren Ziel entsteht, und beweisen, dass diese durch Skalierung auf über eine Million parallele Umgebungen und eine angepasste Hyperparameter-Strategie überwunden werden kann, was zu einer monotonen Leistungsverbesserung über eine Billion Übergänge hinweg führt.

Michael Beukman, Khimya Khetarpal, Zeyu Zheng, Will Dabney, Jakob Foerster, Michael Dennis, Clare Lyle2026-03-09🤖 cs.LG

Agnostic learning in (almost) optimal time via Gaussian surface area

Diese Arbeit verbessert die bekannten Schranken für das agnostische Lernen von Konzeptklassen mit begrenzter Gaußscher Oberflächenfläche, indem sie zeigt, dass ein Polynomgrad von O~(Γ2/ε2)\tilde{O}(\Gamma^2 / \varepsilon^2) ausreicht, was zu nahezu optimalen Komplexitätsergebnissen für das Lernen von Polynom-Threshold-Funktionen im statistischen Abfragemodell führt.

Lucas Pesenti, Lucas Slot, Manuel Wiedmer2026-03-09🤖 cs.LG

TempoSyncDiff: Distilled Temporally-Consistent Diffusion for Low-Latency Audio-Driven Talking Head Generation

Die Arbeit stellt TempoSyncDiff vor, einen effizienten, auf Wissenstransfer basierenden Latent-Diffusionsrahmen für audiogetriebene sprechende Köpfe, der durch Few-Step-Inferenz, Identitätsanker und zeitliche Regularisierung eine niedrige Latenz bei gleichzeitiger Verbesserung der temporalen Stabilität und Synchronisation ermöglicht.

Soumya Mazumdar, Vineet Kumar Rakesh2026-03-09🤖 cs.AI