Temporal-Conditioned Normalizing Flows for Multivariate Time Series Anomaly Detection

Diese Arbeit stellt Temporal-Conditioned Normalizing Flows (tcNF) vor, ein neues Framework zur Anomalieerkennung in multivariaten Zeitreihen, das durch die Bedingungung normalisierender Flüsse auf vorherige Beobachtungen komplexe zeitliche Abhängigkeiten modelliert und robuste Wahrscheinlichkeitsverteilungen für die Identifizierung von Anomalien liefert.

David Baumgartner, Helge Langseth, Kenth Engø-Monsen, Heri Ramampiaro2026-03-11🤖 cs.AI

TrainDeeploy: Hardware-Accelerated Parameter-Efficient Fine-Tuning of Small Transformer Models at the Extreme Edge

TrainDeeploy ist ein Framework, das die hardwarebeschleunigte, parameter-effiziente Feinabstimmung von kleinen Transformer- und CNN-Modellen direkt auf extrem ressourcenbeschränkten Edge-Geräten ermöglicht und damit erstmals einen vollständigen On-Device-Trainings-Pipeline für heterogene SoCs bereitstellt.

Run Wang, Victor J. B. Jung, Philip Wiese, Francesco Conti, Alessio Burrello, Luca Benini2026-03-11🤖 cs.LG

You Didn't Have to Say It like That: Subliminal Learning from Faithful Paraphrases

Die Studie zeigt, dass Sprachmodelle durch das Training auf semantisch treuen Umschreibungen subliminal Präferenzen von einem Lehrermodell übernehmen können, selbst wenn der Inhalt diese Präferenzen explizit widerspricht, was die Wirksamkeit rein inhaltsbasierter Sicherheitsfilter in Frage stellt.

Isaia Gisler (ETH Zürich), Zhonghao He (University of Cambridge), Tianyi Qiu (Peking University)2026-03-11🤖 cs.LG

Efficiently Aligning Draft Models via Parameter- and Data-Efficient Adaptation

Die vorgestellte Arbeit stellt EDA vor, einen parameter- und dateneffizienten Rahmen zur Anpassung von Draft-Modellen, der durch eine entkoppelte Architektur, eine Strategie zur Datenregeneration und eine Stichprobenauswahl die Leistung des spekulativen Decodings bei feinabgestimmten Zielmodellen mit geringeren Trainingskosten wiederherstellt.

Luxi Lin, Zhihang Lin, Zhanpeng Zeng, Yuhao Chen, Qingyu Zhang, Jixiang Luo, Xuelong Li, Rongrong Ji2026-03-11🤖 cs.AI

What Do We Care About in Bandits with Noncompliance? BRACE: Bandits with Recommendations, Abstention, and Certified Effects

Die Arbeit führt BRACE ein, einen parameterfreien Algorithmus für Banditen mit Nichtkonformität, der durch eine klare Unterscheidung zwischen Empfehlungswohlfahrt und Behandlungseffekten sowie durch zertifizierte Intervalle sowohl die optimale Empfehlungsstrategie als auch die strukturell optimale Behandlungsstrategie unter Unsicherheit und schwacher Identifikation zuverlässig ermittelt.

Nicolás Della Penna2026-03-11🤖 cs.LG

Learning Bayesian and Markov Networks with an Unreliable Oracle

Die Arbeit untersucht das strukturelle Lernen von Markov- und Bayesianischen Netzwerken unter Verwendung eines unzuverlässigen Orakels und zeigt, dass Markov-Netzwerke auch bei moderat exponentiellen Fehlern identifizierbar sind, während Bayesianische Netzwerke selbst bei beschränkten Graphparametern keine Fehler tolerieren können, sofern eine eindeutige Identifizierbarkeit gewährleistet werden soll.

Juha Harviainen, Pekka Parviainen, Vidya Sagar Sharma2026-03-11🤖 cs.LG

MM-algorithms for traditional and convex NMF with Tweedie and Negative Binomial cost functions and empirical evaluation

Dieses Papier stellt ein einheitliches Framework für traditionelle und konvexe nicht-negative Matrixfaktorisierung (NMF) unter Verwendung von Tweedie- und Negativ-Binomial-Kostenfunktionen vor, leitet Multiplikations-Update-Regeln mittels Majorize-Minimisation ab und zeigt durch empirische Evaluierungen, dass die Wahl des Rauschmodells sowie der Einsatz konvexer NMF die Anpassungsgüte und Merkmalswiederherstellung signifikant verbessern.

Elisabeth Sommer James, Asger Hobolth, Marta Pelizzola2026-03-11🤖 cs.LG

Learning the Hierarchical Organization in Brain Network for Brain Disorder Diagnosis

Die Studie stellt BrainHO vor, einen neuen Ansatz zur Diagnose von Hirnerkrankungen mittels fMRI, der durch einen hierarchischen Aufmerksamkeitsmechanismus und spezielle Verlustfunktionen die inhärente hierarchische Organisation von Hirnnetzwerken erlernt und dabei sowohl die Klassifikationsleistung verbessert als auch interpretierbare Biomarker identifiziert.

Jingfeng Tang, Peng Cao, Guangqi Wen, Jinzhu Yang, Xiaoli Liu, Osmar R. Zaiane2026-03-11🤖 cs.LG

Multi-DNN Inference of Sparse Models on Edge SoCs

Die Arbeit stellt SparseLoom vor, ein Demonstratorsystem für Edge-SoCs, das durch eine neuartige „Model Stitching"-Methode zur rekombinierenden Erstellung von Modellvarianten ohne Nachtraining die SLO-Verletzungsraten um bis zu 74 % senkt, den Durchsatz um das 2,31-Fache steigert und den Speicherbedarf im Vergleich zu bestehenden Multi-DNN-Inferenzsystemen um durchschnittlich 28 % reduziert.

Jiawei Luo, Di Wu, Simon Dobson, Blesson Varghese2026-03-11🤖 cs.LG