The Gaussian-Multinoulli Restricted Boltzmann Machine: A Potts Model Extension of the GRBM

Die vorgestellte Arbeit führt das Gaussian-Multinoulli Restricted Boltzmann Machine (GM-RBM) ein, ein generatives Energie-basiertes Modell, das durch den Ersatz binärer durch q-stufige kategorische (Potts-)Einheiten eine reichhaltigere latente Repräsentation für diskrete Konzepte ermöglicht und auf Benchmarks für analogisches Abrufen sowie strukturiertes Gedächtnis eine konkurrenzfähige bis verbesserte Leistung bei gleicher Kapazität und vergleichbaren Trainingskosten erzielt.

Nikhil Kapasi, Mohamed Elfouly, William Whitehead, Luke Theogarajan2026-03-11🤖 cs.LG

UltraEdit: Training-, Subject-, and Memory-Free Lifelong Editing in Language Models

Das Paper stellt UltraEdit vor, eine hocheffiziente, speicher- und trainingsfreie Methode für das lebenslange Editieren von Sprachmodellen, die durch eine einstufige Parameteranpassung und Normalisierungsstrategie eine bisher unerreichte Skalierbarkeit auf Consumer-Hardware ermöglicht und durch den neu eingeführten UltraEditBench-Datensatz mit über 2 Millionen Editierungen validiert wird.

Xiaojie Gu, Ziying Huang, Jia-Chen Gu, Kai Zhang2026-03-11🤖 cs.AI

A Systematic Evaluation of On-Device LLMs: Quantization, Performance, and Resources

Die Studie stellt eine systematische Evaluierung von On-Device-LLMs auf handelsüblicher Hardware vor und zeigt, dass stark quantisierte große Modelle (ab ca. 3,5 effektiven Bits pro Gewicht) kleineren Modellen überlegen sind, während sie gleichzeitig Richtlinien für die Optimierung unter Ressourcenbeschränkungen bietet.

Qingyu Song, Rui Liu, Wei Lin, Peiyu Liao, Wenqian Zhao, Yiwen Wang, Shoubo Hu, Yining Jiang, Mochun Long, Hui-Ling Zhen, Ning Jiang, Mingxuan Yuan, Qiao Xiang, Hong Xu2026-03-11🤖 cs.LG

FrontierCO: Real-World and Large-Scale Evaluation of Machine Learning Solvers for Combinatorial Optimization

Das Paper stellt FrontierCO vor, ein umfassendes Benchmark-System zur realistischen und großskaligen Evaluierung von maschinellen Lernverfahren für kombinatorische Optimierungsprobleme, das eine signifikante Leistungslücke gegenüber klassischen Solvern aufzeigt, während es gleichzeitig spezifische Anwendungsfälle identifiziert, in denen ML-Methoden überlegen sind.

Shengyu Feng, Weiwei Sun, Shanda Li, Ameet Talwalkar, Yiming Yang2026-03-11🤖 cs.LG

Embodied AI with Foundation Models for Mobile Service Robots: A Systematic Review

Diese systematische Übersicht untersucht die Integration von Foundation-Modellen in mobile Serviceroboter, indem sie technische Fortschritte bei der Aufgabenausführung und multimodalen Wahrnehmung analysiert, reale Anwendungsbereiche beleuchtet und ethische sowie zukünftige Forschungsfragen im Kontext sicherer und vertrauenswürdiger Mensch-Roboter-Interaktionen diskutiert.

Matthew Lisondra, Beno Benhabib, Goldie Nejat2026-03-11💬 cs.CL

Cooperative Game-Theoretic Credit Assignment for Multi-Agent Policy Gradients via the Core

Die Arbeit stellt CORA vor, eine Methode zur Kreditvergabe im kooperativen Multi-Agenten-Reinforcement-Learning, die mithilfe des Kerns der kooperativen Spieltheorie und zufälliger Koalitionsstichproben globale Vorteile effizient auf Agenten verteilt, um koordiniertes Verhalten zu fördern und die Leistung gegenüber bestehenden Baselines zu verbessern.

Mengda Ji, Genjiu Xu, Keke Jia, Zekun Duan, Yong Qiu, Jianjun Ge, Mingqiang Li2026-03-11🤖 cs.AI

Uncovering Social Network Activity Using Joint User and Topic Interaction

Die vorgestellte Arbeit führt das Modell „Mixture of Interacting Cascades" (MIC) ein, das mithilfe von markierten mehrdimensionalen Hawkes-Prozessen die komplexe Wechselwirkung zwischen Informationskaskaden und Nutzerverhalten in sozialen Netzwerken gemeinsam modelliert und dabei sowohl eine überlegene Leistung als auch aussagekräftige Visualisierungen ermöglicht.

Gaspard Abel, Argyris Kalogeratos, Jean-Pierre Nadal, Julien Randon-Furling2026-03-11🤖 cs.LG

Global Convergence of Iteratively Reweighted Least Squares for Robust Subspace Recovery

Diese Arbeit liefert die ersten globalen Konvergenzgarantien für eine Variante des iterativ gewichteten kleinsten Quadrate-Verfahrens (IRLS) mit dynamischer Regularisierung, die unter deterministischen Bedingungen von jeder Initialisierung aus linear zum zugrunde liegenden Unterraum konvergiert und diese Ergebnisse zudem auf die affinen Unterraumschätzung sowie Anwendungen im Training neuronaler Netze erweitert.

Gilad Lerman, Kang Li, Tyler Maunu, Teng Zhang2026-03-11🤖 cs.LG