On Catastrophic Forgetting in Low-Rank Decomposition-Based Parameter-Efficient Fine-Tuning

Diese Arbeit zeigt, dass das Vergessen bei der sequenziellen Anpassung großer Modelle durch Parameter-effiziente Feinabstimmung maßgeblich von der Geometrie und Parametrisierung des Aktualisierungsunterraums abhängt, wobei tensorbasierte Zerlegungen und strukturell ausgerichtete Parametrisierungen das Vergessen im Vergleich zu herkömmlichen Methoden wie LoRA effektiv reduzieren.

Muhammad Ahmad, Jingjing Zheng, Yankai Cao2026-03-11🤖 cs.LG

ActiveUltraFeedback: Efficient Preference Data Generation using Active Learning

Die Arbeit stellt ActiveUltraFeedback vor, eine modulare Active-Learning-Pipeline, die durch die gezielte Auswahl unsicherer oder qualitativ stark unterschiedlicher Antwortpaare hochwertige Präferenzdaten mit nur einem Sechstel des Annotationsaufwands im Vergleich zu statischen Baselines generiert und so die Leistung von Large Language Models signifikant verbessert.

Davit Melikidze, Marian Schneider, Jessica Lam, Martin Wertich, Ido Hakimi, Barna Pásztor, Andreas Krause2026-03-11🤖 cs.AI

Physics-informed neural operator for predictive parametric phase-field modelling

Die Studie stellt PF-PINO vor, einen physik-informierten neuronalen Operator, der durch die Einbettung der Residuen der Phasenfeld-Gleichungen in die Verlustfunktion die Genauigkeit, Generalisierungsfähigkeit und Langzeitstabilität bei der Vorhersage komplexer Materialmikrostrukturen im Vergleich zu herkömmlichen Methoden wie dem Fourier-neuronalen Operator (FNO) erheblich verbessert.

Nanxi Chen, Airong Chen, Rujin Ma2026-03-11🔬 cond-mat.mtrl-sci

Mousse: Rectifying the Geometry of Muon with Curvature-Aware Preconditioning

Die Arbeit stellt Mousse vor, einen neuen Optimierer, der durch die Kombination von Muons spektraler Stabilität mit Shampoons kroneckerfaktorisierter Vorbedingung die geometrische Anpassungsfähigkeit in stark konditionierten Landschaften verbessert und so das Training von Sprachmodellen um etwa 12 % beschleunigt.

Yechen Zhang, Shuhao Xing, Junhao Huang, Kai Lv, Yunhua Zhou, Xipeng Qiu, Qipeng Guo, Kai Chen2026-03-11🤖 cs.AI

A Multi-Prototype-Guided Federated Knowledge Distillation Approach in AI-RAN Enabled Multi-Access Edge Computing System

Dieser Artikel stellt einen multi-prototypenbasierten Ansatz für das federierte Wissensdistillieren (MP-FedKD) in KI-RAN-fähigen Multi-Access-Edge-Computing-Systemen vor, der durch die Integration von Selbst-Wissensdistillierung, einer bedingten hierarchischen agglomerativen Clustering-Methode und einer neuen Verlustfunktion die Herausforderungen nicht-uniform verteilter Daten überwindet und dabei die Genauigkeit im Vergleich zu bestehenden Methoden signifikant verbessert.

Luyao Zou, Hayoung Oh, Chu Myaet Thwal, Apurba Adhikary, Seohyeon Hong, Zhu Han2026-03-11🤖 cs.LG

A Unified Hierarchical Multi-Task Multi-Fidelity Framework for Data-Efficient Surrogate Modeling in Manufacturing

Diese Arbeit stellt ein neuartiges hierarchisches Multi-Task-Multi-Fidelity-Framework für Gaußsche Prozesse vor, das durch die gleichzeitige Nutzung von Ähnlichkeiten zwischen Aufgaben und fidelityabhängigen Datenmerkmalen die Vorhersagegenauigkeit bei der Surrogatmodellierung in Fertigungssystemen signifikant verbessert.

Manan Mehta, Zhiqiao Dong, Yuhang Yang, Chenhui Shao2026-03-11🤖 cs.LG

GAST: Gradient-aligned Sparse Tuning of Large Language Models with Data-layer Selection

Das Paper stellt GAST vor, eine innovative Methode zur parametereffizienten Feinabstimmung großer Sprachmodelle, die durch eine einheitliche Optimierungsstrategie sowohl daten- als auch schichtselektive Anpassungen kombiniert, um Redundanzen zu minimieren und die Leistung gegenüber bestehenden Ansätzen zu steigern.

Kai Yao, Zhenghan Song, Kaixin Wu, Mingjie Zhong, Danzhao Cheng, Zhaorui Tan, Yixin Ji, Penglei Gao2026-03-11🤖 cs.LG