LoRA-MME: Multi-Model Ensemble of LoRA-Tuned Encoders for Code Comment Classification

Das Paper stellt LoRA-MME vor, einen Multi-Model-Ensemble-Ansatz, der vier mit LoRA feinabgestimmte Transformer-Encoder kombiniert, um die Klassifizierung von Code-Kommentaren in Java, Python und Pharo zu verbessern, wobei trotz hoher semantischer Genauigkeit (F1-Weighted 0,7906) der hohe Rechenaufwand zu einer niedrigeren Gesamtbewertung im Wettbewerb führte.

Md Akib Haider, Ahsan Bulbul, Nafis Fuad Shahid + 2 more2026-03-06💻 cs

Machine Learning for Complex Systems Dynamics: Detecting Bifurcations in Dynamical Systems with Deep Neural Networks

Diese Studie stellt eine neuartige Methode namens equilibrium-informed neural networks (EINNs) vor, die mithilfe von Deep Neural Networks kritische Schwellenwerte für abrupte Regimewechsel in komplexen dynamischen Systemen effizient identifiziert, indem sie Gleichgewichtszustände als Eingabe nutzt, um die entsprechenden Systemparameter zu inferieren.

Swadesh Pal, Roderick Melnik2026-03-06🔢 math

FedEMA-Distill: Exponential Moving Average Guided Knowledge Distillation for Robust Federated Learning

Die Arbeit stellt FedEMA-Distill vor, eine serverseitige Methode für robustes und kommunikationseffizientes Federated Learning, die durch die Kombination von Exponential Moving Average und Ensemble-Knowledge-Distillation auf Basis von Client-Logits die Genauigkeit unter nicht-IID-Datenbedingungen und Byzantine-Angriffen verbessert, ohne Änderungen an der Client-Software zu erfordern.

Hamza Reguieg, Mohamed El Kamili, Essaid Sabir2026-03-06💻 cs

Uncertainty-Calibrated Spatiotemporal Field Diffusion with Sparse Supervision

Das Paper stellt SOLID vor, ein maskenbasiertes Diffusionsmodell, das physikalische Felder ausschließlich aus spärlichen Sensordaten lernt, indem es eine duale Maskierungsstrategie nutzt, um sowohl unbeobachtete Bereiche zu rekonstruieren als auch verlässliche Ankerpunkte zu gewichten, was zu deutlich verbesserten probabilistischen Vorhersagen und kalibrierten Unsicherheitskarten führt.

Kevin Valencia, Xihaier Luo, Shinjae Yoo + 1 more2026-03-06💻 cs

ASFL: An Adaptive Model Splitting and Resource Allocation Framework for Split Federated Learning

Die vorgestellte Arbeit schlägt ein adaptives Split-Federated-Learning-Framework (ASFL) vor, das durch die Kombination von serverseitigem Training, adaptiver Modellaufteilung und Ressourcenallokation die Konvergenzgeschwindigkeit verbessert und die Gesamtverzögerung sowie den Energieverbrauch im Vergleich zu bestehenden Methoden um bis zu 75 % bzw. 80 % reduziert.

Chuiyang Meng, Ming Tang, Vincent W. S. Wong2026-03-06💻 cs

CogGen: Cognitive-Load-Informed Fully Unsupervised Deep Generative Modeling for Compressively Sampled MRI Reconstruction

Die Arbeit stellt CogGen vor, ein vollständig unüberwachtes Deep-Generative-Modell, das durch eine kognitionsbelastungsinformierte, stufenweise Anpassung der Trainingsdaten von niedrigen zu hohen Frequenzen die Rekonstruktion komprimiert abgetasteter MRT-Bilder verbessert und dabei Überanpassung sowie Konvergenzprobleme herkömmlicher Methoden überwindet.

Qingyong Zhu, Yumin Tan, Xiang Gu + 1 more2026-03-06💻 cs