Convergence, Sticking and Escape: Stochastic Dynamics Near Critical Points in SGD

Die Arbeit untersucht die Konvergenz- und Fluchtdynamik des stochastischen Gradientenabstiegs in eindimensionalen Landschaften mit unterschiedlichem Rauschen und zeigt, wie Rauschcharakteristika und die Geometrie der Funktion bestimmen, ob SGD in Minima konvergiert, in der Nähe von Maxima verweilt oder diese mit einer bestimmten Wahrscheinlichkeit zu benachbarten Minima überwindet.

Dmitry Dudukalov, Artem Logachov, Vladimir Lotov + 3 more2026-03-05🤖 cs.LG

Do We Need All the Synthetic Data? Targeted Image Augmentation via Diffusion Models

Die Arbeit stellt TADA vor, ein Framework zur gezielten Bildaugmentation mittels Diffusionsmodellen, das durch selektive Erweiterung nur derjenigen Trainingsdaten, die zu Beginn des Lernprozesses noch nicht erfasst wurden, die Generalisierungsfähigkeit von Bildklassifizierern effizient verbessert und dabei den Rechenaufwand im Vergleich zu herkömmlichen Methoden signifikant reduziert.

Dang Nguyen, Jiping Li, Jinghao Zheng + 1 more2026-03-05🤖 cs.LG

A Copula Based Supervised Filter for Feature Selection in Diabetes Risk Prediction Using Machine Learning

Die Studie stellt einen effizienten, kopulabasierten Filter vor, der Merkmale anhand ihrer gemeinsamen Extremwerte mit der positiven Klasse bewertet und sich in der Diabetes-Risikovorhersage als schneller und klinisch interpretierbarer Ansatz erweist, der insbesondere bei großen Datensätzen mit Standardmethoden konkurrieren kann.

Agnideep Aich, Md Monzur Murshed, Sameera Hewage + 1 more2026-03-05🤖 cs.LG

Boosting In-Context Learning in LLMs Through the Lens of Classical Supervised Learning

Die Arbeit stellt „Supervised Calibration" (SC) vor, ein auf Verlustminimierung basierendes Framework, das durch das Lernen optimaler affiner Transformationen im Logit-Raum und die Integration spezieller Regularisierungstechniken die Grenzen bestehender Kalibrierungsmethoden überwindet und so die Leistung von Large Language Models beim In-Context Learning signifikant verbessert.

Korel Gundem, Juncheng Dong, Dennis Zhang + 2 more2026-03-05🤖 cs.AI

AutoQD: Automatic Discovery of Diverse Behaviors with Quality-Diversity Optimization

Das Paper stellt AutoQD vor, einen theoretisch fundierten Ansatz, der mithilfe von Zufalls-Fourier-Features und Occupancy-Maßen automatisch aussagekräftige Verhaltensdeskriptoren für Quality-Diversity-Optimierung generiert, wodurch die Abhängigkeit von manuell definierten Merkmalen überwunden und eine offene Entdeckung vielfältiger Verhaltensweisen in der Reinforcement Learning ermöglicht wird.

Saeed Hedayatian, Stefanos Nikolaidis2026-03-05🤖 cs.AI

Robust Adversarial Quantification via Conflict-Aware Evidential Deep Learning

Die vorgestellte Arbeit führt Conflict-Aware Evidential Deep Learning (C-EDL) ein, eine leichte Nachbearbeitungsmethode, die durch die Quantifizierung von Repräsentationswidersprüchen mittels diverser Transformationen die Robustheit von Evidential Deep Learning gegenüber adversariellen Angriffen und Out-of-Distribution-Daten signifikant verbessert, ohne dass ein Nachtraining erforderlich ist.

Charmaine Barker, Daniel Bethell, Simos Gerasimou2026-03-05🤖 cs.AI

UMA: A Family of Universal Models for Atoms

Meta FAIR stellt UMA vor, eine Familie universeller Atommodelle, die auf einer einzigartigen Datenbank von 500 Millionen 3D-Strukturen trainiert wurden und durch eine innovative Architektur aus linearen Experten sowohl hohe Genauigkeit als auch Geschwindigkeit bieten, wodurch ein einzelnes Modell ohne Feinabstimmung in der Lage ist, spezialisierte Modelle in verschiedenen chemischen und materialwissenschaftlichen Anwendungen zu übertreffen.

Brandon M. Wood, Misko Dzamba, Xiang Fu + 15 more2026-03-05🤖 cs.LG

Fast Equivariant Imaging: Acceleration for Unsupervised Learning via Augmented Lagrangian and Auxiliary PnP Denoisers

Die vorgestellte Arbeit entwickelt „Fast Equivariant Imaging" (FEI), ein neuartiges unüberwachtes Lernframework, das durch die Kombination von Augmented Lagrangian und Plug-and-Play-Denoisern das Training von Bildgebungsnetzwerken ohne Ground-Truth-Daten um den Faktor 10 beschleunigt und gleichzeitig die Generalisierungsleistung verbessert.

Guixian Xu, Jinglai Li, Junqi Tang2026-03-05🤖 cs.LG