TrainDeeploy: Hardware-Accelerated Parameter-Efficient Fine-Tuning of Small Transformer Models at the Extreme Edge

TrainDeeploy ist ein Framework, das die hardwarebeschleunigte, parameter-effiziente Feinabstimmung von kleinen Transformer- und CNN-Modellen direkt auf extrem ressourcenbeschränkten Edge-Geräten ermöglicht und damit erstmals einen vollständigen On-Device-Trainings-Pipeline für heterogene SoCs bereitstellt.

Run Wang, Victor J. B. Jung, Philip Wiese, Francesco Conti, Alessio Burrello, Luca BeniniWed, 11 Ma🤖 cs.LG

You Didn't Have to Say It like That: Subliminal Learning from Faithful Paraphrases

Die Studie zeigt, dass Sprachmodelle durch das Training auf semantisch treuen Umschreibungen subliminal Präferenzen von einem Lehrermodell übernehmen können, selbst wenn der Inhalt diese Präferenzen explizit widerspricht, was die Wirksamkeit rein inhaltsbasierter Sicherheitsfilter in Frage stellt.

Isaia Gisler (ETH Zürich), Zhonghao He (University of Cambridge), Tianyi Qiu (Peking University)Wed, 11 Ma🤖 cs.LG

Efficiently Aligning Draft Models via Parameter- and Data-Efficient Adaptation

Die vorgestellte Arbeit stellt EDA vor, einen parameter- und dateneffizienten Rahmen zur Anpassung von Draft-Modellen, der durch eine entkoppelte Architektur, eine Strategie zur Datenregeneration und eine Stichprobenauswahl die Leistung des spekulativen Decodings bei feinabgestimmten Zielmodellen mit geringeren Trainingskosten wiederherstellt.

Luxi Lin, Zhihang Lin, Zhanpeng Zeng, Yuhao Chen, Qingyu Zhang, Jixiang Luo, Xuelong Li, Rongrong JiWed, 11 Ma🤖 cs.AI

What Do We Care About in Bandits with Noncompliance? BRACE: Bandits with Recommendations, Abstention, and Certified Effects

Die Arbeit führt BRACE ein, einen parameterfreien Algorithmus für Banditen mit Nichtkonformität, der durch eine klare Unterscheidung zwischen Empfehlungswohlfahrt und Behandlungseffekten sowie durch zertifizierte Intervalle sowohl die optimale Empfehlungsstrategie als auch die strukturell optimale Behandlungsstrategie unter Unsicherheit und schwacher Identifikation zuverlässig ermittelt.

Nicolás Della PennaWed, 11 Ma🤖 cs.LG

Learning Bayesian and Markov Networks with an Unreliable Oracle

Die Arbeit untersucht das strukturelle Lernen von Markov- und Bayesianischen Netzwerken unter Verwendung eines unzuverlässigen Orakels und zeigt, dass Markov-Netzwerke auch bei moderat exponentiellen Fehlern identifizierbar sind, während Bayesianische Netzwerke selbst bei beschränkten Graphparametern keine Fehler tolerieren können, sofern eine eindeutige Identifizierbarkeit gewährleistet werden soll.

Juha Harviainen, Pekka Parviainen, Vidya Sagar SharmaWed, 11 Ma🤖 cs.LG

MM-algorithms for traditional and convex NMF with Tweedie and Negative Binomial cost functions and empirical evaluation

Dieses Papier stellt ein einheitliches Framework für traditionelle und konvexe nicht-negative Matrixfaktorisierung (NMF) unter Verwendung von Tweedie- und Negativ-Binomial-Kostenfunktionen vor, leitet Multiplikations-Update-Regeln mittels Majorize-Minimisation ab und zeigt durch empirische Evaluierungen, dass die Wahl des Rauschmodells sowie der Einsatz konvexer NMF die Anpassungsgüte und Merkmalswiederherstellung signifikant verbessern.

Elisabeth Sommer James, Asger Hobolth, Marta PelizzolaWed, 11 Ma🤖 cs.LG

Learning the Hierarchical Organization in Brain Network for Brain Disorder Diagnosis

Die Studie stellt BrainHO vor, einen neuen Ansatz zur Diagnose von Hirnerkrankungen mittels fMRI, der durch einen hierarchischen Aufmerksamkeitsmechanismus und spezielle Verlustfunktionen die inhärente hierarchische Organisation von Hirnnetzwerken erlernt und dabei sowohl die Klassifikationsleistung verbessert als auch interpretierbare Biomarker identifiziert.

Jingfeng Tang, Peng Cao, Guangqi Wen, Jinzhu Yang, Xiaoli Liu, Osmar R. ZaianeWed, 11 Ma🤖 cs.LG

Multi-DNN Inference of Sparse Models on Edge SoCs

Die Arbeit stellt SparseLoom vor, ein Demonstratorsystem für Edge-SoCs, das durch eine neuartige „Model Stitching"-Methode zur rekombinierenden Erstellung von Modellvarianten ohne Nachtraining die SLO-Verletzungsraten um bis zu 74 % senkt, den Durchsatz um das 2,31-Fache steigert und den Speicherbedarf im Vergleich zu bestehenden Multi-DNN-Inferenzsystemen um durchschnittlich 28 % reduziert.

Jiawei Luo, Di Wu, Simon Dobson, Blesson VargheseWed, 11 Ma🤖 cs.LG

Well Log-Guided Synthesis of Subsurface Images from Sparse Petrography Data Using cGANs

Die Studie stellt einen auf bedingten Generativen Adversarial Networks (cGANs) basierenden Ansatz vor, der mithilfe von Bohrlochdaten und spärlichen Petrographieproben realistische, durchgehende Porenstrukturen von Karbonatgesteinen synthetisiert, um die Reservoircharakterisierung für Anwendungen wie Kohlenstoffabscheidung und unterirdische Wasserstoffspeicherung zu verbessern.

Ali Sadeghkhani, A. Assadi, B. Bennett, A. RabbaniWed, 11 Ma🤖 cs.LG

FreqCycle: A Multi-Scale Time-Frequency Analysis Method for Time Series Forecasting

Der Artikel stellt FreqCycle vor, ein neuartiges Framework für die Zeitreihenvorhersage, das durch die Kombination von Filter-verbesserter Zyklusvorhersage und segmentiertem Frequenzbereichslernen sowohl niederfrequente als auch mittlere bis hohe Frequenzmuster effektiv erfasst und durch eine hierarchische Erweiterung (MFreqCycle) gekoppelte Mehrperiodizitäten bewältigt, wodurch es in sieben Benchmark-Datensätzen einen neuen State-of-the-Art bei gleichzeitig hoher Inferenzgeschwindigkeit erreicht.

Boya Zhang, Shuaijie Yin, Huiwen Zhu, Xing HeWed, 11 Ma🤖 cs.LG

No evaluation without fair representation : Impact of label and selection bias on the evaluation, performance and mitigation of classification models

Diese Arbeit analysiert empirisch die unterschiedlichen Auswirkungen von Label- und Selektionsverzerrungen auf die Evaluierung und Leistung von Klassifikationsmodellen sowie auf die Wirksamkeit von Gegenmaßnahmen, wobei ein neu eingeführtes Framework zeigt, dass bei verzerrungsfreien Testdaten kein Zielkonflikt zwischen Fairness und Genauigkeit besteht und die Effizienz von Mitigationsmethoden stark von der Art der Verzerrung abhängt.

Magali Legast, Toon Calders, François FoussWed, 11 Ma🤖 cs.LG