Preventing Learning Stagnation in PPO by Scaling to 1 Million Parallel Environments

Die Autoren zeigen, dass Lernstagnation bei PPO durch eine Diskrepanz zwischen Stichproben-Schätzungen und dem wahren Ziel entsteht, und beweisen, dass diese durch Skalierung auf über eine Million parallele Umgebungen und eine angepasste Hyperparameter-Strategie überwunden werden kann, was zu einer monotonen Leistungsverbesserung über eine Billion Übergänge hinweg führt.

Michael Beukman, Khimya Khetarpal, Zeyu Zheng, Will Dabney, Jakob Foerster, Michael Dennis, Clare Lyle2026-03-09🤖 cs.LG

Agnostic learning in (almost) optimal time via Gaussian surface area

Diese Arbeit verbessert die bekannten Schranken für das agnostische Lernen von Konzeptklassen mit begrenzter Gaußscher Oberflächenfläche, indem sie zeigt, dass ein Polynomgrad von O~(Γ2/ε2)\tilde{O}(\Gamma^2 / \varepsilon^2) ausreicht, was zu nahezu optimalen Komplexitätsergebnissen für das Lernen von Polynom-Threshold-Funktionen im statistischen Abfragemodell führt.

Lucas Pesenti, Lucas Slot, Manuel Wiedmer2026-03-09🤖 cs.LG

TempoSyncDiff: Distilled Temporally-Consistent Diffusion for Low-Latency Audio-Driven Talking Head Generation

Die Arbeit stellt TempoSyncDiff vor, einen effizienten, auf Wissenstransfer basierenden Latent-Diffusionsrahmen für audiogetriebene sprechende Köpfe, der durch Few-Step-Inferenz, Identitätsanker und zeitliche Regularisierung eine niedrige Latenz bei gleichzeitiger Verbesserung der temporalen Stabilität und Synchronisation ermöglicht.

Soumya Mazumdar, Vineet Kumar Rakesh2026-03-09🤖 cs.AI

Ensemble Graph Neural Networks for Probabilistic Sea Surface Temperature Forecasting via Input Perturbations

Diese Studie zeigt, dass Ensemble-Graph-Neural-Networks für die probabilistische Vorhersage der Meeresoberflächentemperatur durch räumlich kohärente Eingangsstörungen (z. B. Perlin-Rauschen) eine gut kalibrierte Unsicherheitsquantifizierung erreichen, ohne zusätzliche Trainingskosten zu verursachen.

Alejandro J. González-Santana, Giovanny A. Cuervo-Londoño, Javier Sánchez2026-03-09🤖 cs.AI

Efficient Vector Search in the Wild: One Model for Multi-K Queries

Die Arbeit stellt OMEGA vor, eine effiziente Methode für das Lernen von Top-K-Suchen, die mit einem einzigen, auf K=1 trainierten Modell und einem dynamischen Verfeinerungsprozess sowohl hohe Genauigkeit als auch Leistung bei variierenden K-Werten erreicht und dabei die Vorverarbeitungszeit im Vergleich zu bestehenden Methoden drastisch reduziert.

Yifan Peng, Jiafei Fan, Xingda Wei, Sijie Shen, Rong Chen, Jianning Wang, Xiaojian Luo, Wenyuan Yu, Jingren Zhou, Haibo Chen2026-03-09🤖 cs.LG

FedSCS-XGB -- Federated Server-centric surrogate XGBoost for continual health monitoring

Die Arbeit stellt FedSCS-XGB vor, ein neuartiges verteiltes Lernprotokoll auf Basis von XGBoost, das eine kontinuierliche Gesundheitsüberwachung mittels tragbarer Sensoren ermöglicht und dabei zentrale Trainingsleistung mit einem Abweichungswert von unter 1 % bei gleichzeitiger Wahrung der strukturellen Vorteile des XGBoost-Algorithmus erreicht.

Felix Walger, Mehdi Ejtehadi, Anke Schmeink, Diego Paez-Granados2026-03-09🤖 cs.LG

DC-Merge: Improving Model Merging with Directional Consistency

Der Artikel stellt DC-Merge vor, eine Methode zum Zusammenführen von Modellen, die durch den Ausgleich der Energieverteilung in Singulärwerten und die Projektion auf einen gemeinsamen orthogonalen Unterraum die Richtungskonsistenz zwischen einzelnen Aufgabenvektoren erhält und damit in Vision- und Vision-Sprache-Benchmarks state-of-the-art-Ergebnisse erzielt.

Han-Chen Zhang, Zi-Hao Zhou, Mao-Lin Luo, Shimin Di, Min-Ling Zhang, Tong Wei2026-03-09🤖 cs.LG