GNNs for Time Series Anomaly Detection: An Open-Source Framework and a Critical Evaluation

Diese Arbeit stellt ein Open-Source-Framework für die Anwendung von Graph Neural Networks (GNNs) zur Zeitreihen-Anomalieerkennung vor, das durch eine kritische Evaluierung nicht nur die Detektionsleistung und Interpretierbarkeit verbessert, sondern auch bestehende Mängel in der Bewertungsmethodik aufdeckt.

Federico Bello, Gonzalo Chiarlone, Marcelo Fiori, Gastón García González, Federico LarrocaWed, 11 Ma🤖 cs.AI

On Catastrophic Forgetting in Low-Rank Decomposition-Based Parameter-Efficient Fine-Tuning

Diese Arbeit zeigt, dass das Vergessen bei der sequenziellen Anpassung großer Modelle durch Parameter-effiziente Feinabstimmung maßgeblich von der Geometrie und Parametrisierung des Aktualisierungsunterraums abhängt, wobei tensorbasierte Zerlegungen und strukturell ausgerichtete Parametrisierungen das Vergessen im Vergleich zu herkömmlichen Methoden wie LoRA effektiv reduzieren.

Muhammad Ahmad, Jingjing Zheng, Yankai CaoWed, 11 Ma🤖 cs.LG

ActiveUltraFeedback: Efficient Preference Data Generation using Active Learning

Die Arbeit stellt ActiveUltraFeedback vor, eine modulare Active-Learning-Pipeline, die durch die gezielte Auswahl unsicherer oder qualitativ stark unterschiedlicher Antwortpaare hochwertige Präferenzdaten mit nur einem Sechstel des Annotationsaufwands im Vergleich zu statischen Baselines generiert und so die Leistung von Large Language Models signifikant verbessert.

Davit Melikidze, Marian Schneider, Jessica Lam, Martin Wertich, Ido Hakimi, Barna Pásztor, Andreas KrauseWed, 11 Ma🤖 cs.AI

Physics-informed neural operator for predictive parametric phase-field modelling

Die Studie stellt PF-PINO vor, einen physik-informierten neuronalen Operator, der durch die Einbettung der Residuen der Phasenfeld-Gleichungen in die Verlustfunktion die Genauigkeit, Generalisierungsfähigkeit und Langzeitstabilität bei der Vorhersage komplexer Materialmikrostrukturen im Vergleich zu herkömmlichen Methoden wie dem Fourier-neuronalen Operator (FNO) erheblich verbessert.

Nanxi Chen, Airong Chen, Rujin MaWed, 11 Ma🔬 cond-mat.mtrl-sci

Mousse: Rectifying the Geometry of Muon with Curvature-Aware Preconditioning

Die Arbeit stellt Mousse vor, einen neuen Optimierer, der durch die Kombination von Muons spektraler Stabilität mit Shampoons kroneckerfaktorisierter Vorbedingung die geometrische Anpassungsfähigkeit in stark konditionierten Landschaften verbessert und so das Training von Sprachmodellen um etwa 12 % beschleunigt.

Yechen Zhang, Shuhao Xing, Junhao Huang, Kai Lv, Yunhua Zhou, Xipeng Qiu, Qipeng Guo, Kai ChenWed, 11 Ma🤖 cs.AI

A Multi-Prototype-Guided Federated Knowledge Distillation Approach in AI-RAN Enabled Multi-Access Edge Computing System

Dieser Artikel stellt einen multi-prototypenbasierten Ansatz für das federierte Wissensdistillieren (MP-FedKD) in KI-RAN-fähigen Multi-Access-Edge-Computing-Systemen vor, der durch die Integration von Selbst-Wissensdistillierung, einer bedingten hierarchischen agglomerativen Clustering-Methode und einer neuen Verlustfunktion die Herausforderungen nicht-uniform verteilter Daten überwindet und dabei die Genauigkeit im Vergleich zu bestehenden Methoden signifikant verbessert.

Luyao Zou, Hayoung Oh, Chu Myaet Thwal, Apurba Adhikary, Seohyeon Hong, Zhu HanWed, 11 Ma🤖 cs.LG

A Unified Hierarchical Multi-Task Multi-Fidelity Framework for Data-Efficient Surrogate Modeling in Manufacturing

Diese Arbeit stellt ein neuartiges hierarchisches Multi-Task-Multi-Fidelity-Framework für Gaußsche Prozesse vor, das durch die gleichzeitige Nutzung von Ähnlichkeiten zwischen Aufgaben und fidelityabhängigen Datenmerkmalen die Vorhersagegenauigkeit bei der Surrogatmodellierung in Fertigungssystemen signifikant verbessert.

Manan Mehta, Zhiqiao Dong, Yuhang Yang, Chenhui ShaoWed, 11 Ma🤖 cs.LG

GAST: Gradient-aligned Sparse Tuning of Large Language Models with Data-layer Selection

Das Paper stellt GAST vor, eine innovative Methode zur parametereffizienten Feinabstimmung großer Sprachmodelle, die durch eine einheitliche Optimierungsstrategie sowohl daten- als auch schichtselektive Anpassungen kombiniert, um Redundanzen zu minimieren und die Leistung gegenüber bestehenden Ansätzen zu steigern.

Kai Yao, Zhenghan Song, Kaixin Wu, Mingjie Zhong, Danzhao Cheng, Zhaorui Tan, Yixin Ji, Penglei GaoWed, 11 Ma🤖 cs.LG