AGMARL-DKS: An Adaptive Graph-Enhanced Multi-Agent Reinforcement Learning for Dynamic Kubernetes Scheduling

Die Studie stellt AGMARL-DKS vor, einen adaptiven, graphenbasierten Multi-Agenten-Verstärkungslern-Scheduler für Kubernetes, der durch dezentrale Ausführung, globale Kontextmodellierung mittels Graph Neural Networks und stressbewusste lexikografische Priorisierung die Skalierbarkeit, Fehlertoleranz und Ressourcennutzung im Vergleich zu herkömmlichen Ansätzen signifikant verbessert.

Hamed Hamzeh2026-03-13🤖 cs.LG

Frequentist Consistency of Prior-Data Fitted Networks for Causal Inference

Diese Arbeit zeigt, dass Prior-Data-Fitted-Networks (PFNs) für kausale Inferenz ohne Korrektur zu einer durch den Prior verursachten Verzerrung führen, und schlägt eine Kalibrierung mittels einer einstufigen Posterior-Korrektur (OSPC) auf Basis von Martingal-Posterior-Verteilungen vor, um die frequentistische Konsistenz und eine korrekte Unsicherheitsquantifizierung für den durchschnittlichen Behandlungseffekt (ATE) wiederherzustellen.

Valentyn Melnychuk, Vahid Balazadeh, Stefan Feuerriegel, Rahul G. Krishnan2026-03-13🤖 cs.LG

Continual Learning with Vision-Language Models via Semantic-Geometry Preservation

Die Arbeit stellt SeGP-CL vor, eine exemplarfreie Methode zum kontinuierlichen Lernen von Vision-Language-Modellen, die durch die Erhaltung der semantisch-geometrischen Struktur mittels adversarischer Anker und geometrischer Distillation katastrophales Vergessen verhindert und gleichzeitig die Stabilität sowie den Vorwärts-Transfer verbessert.

Chiyuan He, Zihuan Qiu, Fanman Meng, Runtong Zhang, Linfeng Xu, Qingbo Wu, Hongliang Li2026-03-13🤖 cs.LG

Cross-Domain Policy Optimization via Bellman Consistency and Hybrid Critics

Die Arbeit stellt QAvatar vor, einen hybriden Kritiker, der durch die Einführung der Bellman-Konsistenz über Domänen hinweg die Daten-effizienz im Cross-Domain-Reinforcement-Learning verbessert, indem er Quell- und Ziel-Q-Funktionen adaptiv kombiniert, um negative Übertragungseffekte zu vermeiden und eine zuverlässige Wissensübertragung in verschiedenen Robotik-Aufgaben zu gewährleisten.

Ming-Hong Chen, Kuan-Chen Pan, You-De Huang, Xi Liu, Ping-Chun Hsieh2026-03-13🤖 cs.LG

Wasserstein Gradient Flows for Batch Bayesian Optimal Experimental Design

Diese Arbeit stellt einen neuen Ansatz für das Batch-Bayes'sche Optimal-Experiment-Design vor, der das Optimierungsproblem durch eine probabilistische Hebung in den Raum der Wahrscheinlichkeitsmaße transformiert und unter Verwendung von Wasserstein-Gradientenflüssen skalierbare, partikelbasierte Algorithmen entwickelt, um hochdimensionale und nicht-konvexe Nutzenfunktionen effizient zu optimieren.

Louis Sharrock2026-03-13📊 stat

Cornserve: A Distributed Serving System for Any-to-Any Multimodal Models

Cornserve ist ein verteiltes Serving-System, das auf Kubernetes basiert und durch flexible Aufgabenabstraktion sowie eine effiziente Record-and-Replay-Ausführung die Skalierbarkeit und Leistung von beliebigen Any-to-Any-Multimodalmodellen mit bis zu 3,81-fach höherem Durchsatz und 5,79-fach niedrigerer Tail-Latenz verbessert.

Jae-Won Chung, Jeff J. Ma, Jisang Ahn, Yizhuo Liang, Akshay Jajoo, Myungjin Lee, Mosharaf Chowdhury2026-03-13🤖 cs.LG

FlashMotion: Few-Step Controllable Video Generation with Trajectory Guidance

Die Arbeit stellt FlashMotion vor, ein neuartiges Trainingsframework, das durch eine spezielle Hybrid-Strategie aus Diffusions- und adversariellen Zielen die Lücke zwischen Few-Step-Video-Generierung und präziser Trajektoriensteuerung schließt und dabei sowohl die Bildqualität als auch die Bewegungsgenauigkeit im Vergleich zu bestehenden Methoden verbessert.

Quanhao Li, Zhen Xing, Rui Wang, Haidong Cao, Qi Dai, Daoguo Dong, Zuxuan Wu2026-03-13🤖 cs.LG

IsoCompute Playbook: Optimally Scaling Sampling Compute for LLM RL

Die Studie „IsoCompute Playbook" leitet berechnungsoptimale Regeln für die Allokation von Sampling-Ressourcen beim Reinforcement Learning von Large Language Models ab und zeigt, wie sich die Anzahl paralleler Rollouts je Problem je nach Budget und Schwierigkeitsgrad gezielt skalieren lässt, um Stabilität und Effizienz zu maximieren.

Zhoujun Cheng, Yutao Xie, Yuxiao Qu, Amrith Setlur, Shibo Hao, Varad Pimpalkhute, Tongtong Liang, Feng Yao, Zhengzhong Liu, Eric Xing, Virginia Smith, Ruslan Salakhutdinov, Zhiting Hu, Taylor Killian, Aviral Kumar2026-03-13🤖 cs.LG

Proof-Carrying Materials: Falsifiable Safety Certificates for Machine-Learned Interatomic Potentials

Die Arbeit stellt „Proof-Carrying Materials" (PCM) vor, ein dreistufiges Verfahren aus adversarieller Fälschung, Bootstrap-Verfeinerung und formaler Verifizierung, das die Zuverlässigkeit maschinengelernter Interatomarer Potentiale sicherstellt und deren Nachweisfähigkeit für die Entdeckung stabiler Materialien im Vergleich zu herkömmlichen Filtern um 25 % steigert.

Abhinaba Basu, Pavan Chakraborty2026-03-13🔬 cond-mat.mtrl-sci