The Gaussian-Multinoulli Restricted Boltzmann Machine: A Potts Model Extension of the GRBM

Dit paper introduceert de Gaussian-Multinoulli Restricted Boltzmann Machine (GM-RBM), een energiegebaseerd generatief model dat de standaard GB-RBM uitbreidt met q-staats categorische (Potts) verborgen eenheden om discrete, gestructureerde representaties te leren, en toont aan dat dit model bij gelijke capaciteit concurrerende of betere resultaten bereikt op analogie- en geheugenopdrachten vergeleken met binaire latente modellen.

Nikhil Kapasi, Mohamed Elfouly, William Whitehead, Luke Theogarajan2026-03-11🤖 cs.LG

UltraEdit: Training-, Subject-, and Memory-Free Lifelong Editing in Language Models

Dit paper introduceert UltraEdit, een trainings-, onderwerp- en geheugenloze methode voor het levenslang bijwerken van taalmodellen die aanzienlijk sneller en minder geheugenintensief is dan bestaande technieken, waardoor het zelfs op consumentenhardware mogelijk wordt om miljoenen bewerkingen uit te voeren zonder bestaande vaardigheden te verliezen.

Xiaojie Gu, Ziying Huang, Jia-Chen Gu, Kai Zhang2026-03-11🤖 cs.AI

A Systematic Evaluation of On-Device LLMs: Quantization, Performance, and Resources

Deze studie introduceert een systematische methode om on-device LLM's te evalueren en concludeert dat zwaar gekwantiseerde grotere modellen vaak beter presteren dan kleinere, hogere precisie-modellen, met een prestatiedrempel van ongeveer 3,5 bits per gewicht.

Qingyu Song, Rui Liu, Wei Lin, Peiyu Liao, Wenqian Zhao, Yiwen Wang, Shoubo Hu, Yining Jiang, Mochun Long, Hui-Ling Zhen, Ning Jiang, Mingxuan Yuan, Qiao Xiang, Hong Xu2026-03-11🤖 cs.LG

FrontierCO: Real-World and Large-Scale Evaluation of Machine Learning Solvers for Combinatorial Optimization

Het paper introduceert FrontierCO, een uitgebreid benchmark voor het evalueren van machine learning-oplossers voor combinatorische optimalisatie op realistische, industriële schaal, waarbij een aanhoudende prestatiekloof wordt aangetoond ten opzichte van klassieke methoden, hoewel er specifieke scenario's zijn waarin ML-methoden beter presteren.

Shengyu Feng, Weiwei Sun, Shanda Li, Ameet Talwalkar, Yiming Yang2026-03-11🤖 cs.LG

Global Convergence of Iteratively Reweighted Least Squares for Robust Subspace Recovery

Dit artikel bewijst dat een variant van Iteratively Reweighted Least Squares (IRLS) met dynamische regularisatie onder deterministische voorwaarden lineair convergeert naar de onderliggende deelruimte, waarmee voor het eerst globale convergentie wordt gegarandeerd voor IRLS in robuuste subspace recovery en niet-convexe optimalisatie op Riemanniaanse variëteiten.

Gilad Lerman, Kang Li, Tyler Maunu, Teng Zhang2026-03-11🤖 cs.LG