Continual Learning with Vision-Language Models via Semantic-Geometry Preservation

Die Arbeit stellt SeGP-CL vor, eine exemplarfreie Methode zum kontinuierlichen Lernen von Vision-Language-Modellen, die durch die Erhaltung der semantisch-geometrischen Struktur mittels adversarischer Anker und geometrischer Distillation katastrophales Vergessen verhindert und gleichzeitig die Stabilität sowie den Vorwärts-Transfer verbessert.

Chiyuan He, Zihuan Qiu, Fanman Meng, Runtong Zhang, Linfeng Xu, Qingbo Wu, Hongliang Li2026-03-13🤖 cs.LG

Cross-Domain Policy Optimization via Bellman Consistency and Hybrid Critics

Die Arbeit stellt QAvatar vor, einen hybriden Kritiker, der durch die Einführung der Bellman-Konsistenz über Domänen hinweg die Daten-effizienz im Cross-Domain-Reinforcement-Learning verbessert, indem er Quell- und Ziel-Q-Funktionen adaptiv kombiniert, um negative Übertragungseffekte zu vermeiden und eine zuverlässige Wissensübertragung in verschiedenen Robotik-Aufgaben zu gewährleisten.

Ming-Hong Chen, Kuan-Chen Pan, You-De Huang, Xi Liu, Ping-Chun Hsieh2026-03-13🤖 cs.LG

Wasserstein Gradient Flows for Batch Bayesian Optimal Experimental Design

Diese Arbeit stellt einen neuen Ansatz für das Batch-Bayes'sche Optimal-Experiment-Design vor, der das Optimierungsproblem durch eine probabilistische Hebung in den Raum der Wahrscheinlichkeitsmaße transformiert und unter Verwendung von Wasserstein-Gradientenflüssen skalierbare, partikelbasierte Algorithmen entwickelt, um hochdimensionale und nicht-konvexe Nutzenfunktionen effizient zu optimieren.

Louis Sharrock2026-03-13📊 stat

Cornserve: A Distributed Serving System for Any-to-Any Multimodal Models

Cornserve ist ein verteiltes Serving-System, das auf Kubernetes basiert und durch flexible Aufgabenabstraktion sowie eine effiziente Record-and-Replay-Ausführung die Skalierbarkeit und Leistung von beliebigen Any-to-Any-Multimodalmodellen mit bis zu 3,81-fach höherem Durchsatz und 5,79-fach niedrigerer Tail-Latenz verbessert.

Jae-Won Chung, Jeff J. Ma, Jisang Ahn, Yizhuo Liang, Akshay Jajoo, Myungjin Lee, Mosharaf Chowdhury2026-03-13🤖 cs.LG

FlashMotion: Few-Step Controllable Video Generation with Trajectory Guidance

Die Arbeit stellt FlashMotion vor, ein neuartiges Trainingsframework, das durch eine spezielle Hybrid-Strategie aus Diffusions- und adversariellen Zielen die Lücke zwischen Few-Step-Video-Generierung und präziser Trajektoriensteuerung schließt und dabei sowohl die Bildqualität als auch die Bewegungsgenauigkeit im Vergleich zu bestehenden Methoden verbessert.

Quanhao Li, Zhen Xing, Rui Wang, Haidong Cao, Qi Dai, Daoguo Dong, Zuxuan Wu2026-03-13🤖 cs.LG

IsoCompute Playbook: Optimally Scaling Sampling Compute for LLM RL

Die Studie „IsoCompute Playbook" leitet berechnungsoptimale Regeln für die Allokation von Sampling-Ressourcen beim Reinforcement Learning von Large Language Models ab und zeigt, wie sich die Anzahl paralleler Rollouts je Problem je nach Budget und Schwierigkeitsgrad gezielt skalieren lässt, um Stabilität und Effizienz zu maximieren.

Zhoujun Cheng, Yutao Xie, Yuxiao Qu, Amrith Setlur, Shibo Hao, Varad Pimpalkhute, Tongtong Liang, Feng Yao, Zhengzhong Liu, Eric Xing, Virginia Smith, Ruslan Salakhutdinov, Zhiting Hu, Taylor Killian, Aviral Kumar2026-03-13🤖 cs.LG

Proof-Carrying Materials: Falsifiable Safety Certificates for Machine-Learned Interatomic Potentials

Die Arbeit stellt „Proof-Carrying Materials" (PCM) vor, ein dreistufiges Verfahren aus adversarieller Fälschung, Bootstrap-Verfeinerung und formaler Verifizierung, das die Zuverlässigkeit maschinengelernter Interatomarer Potentiale sicherstellt und deren Nachweisfähigkeit für die Entdeckung stabiler Materialien im Vergleich zu herkömmlichen Filtern um 25 % steigert.

Abhinaba Basu, Pavan Chakraborty2026-03-13🔬 cond-mat.mtrl-sci