AutoQD: Automatic Discovery of Diverse Behaviors with Quality-Diversity Optimization

Das Paper stellt AutoQD vor, einen theoretisch fundierten Ansatz, der mithilfe von Zufalls-Fourier-Features und Occupancy-Maßen automatisch aussagekräftige Verhaltensdeskriptoren für Quality-Diversity-Optimierung generiert, wodurch die Abhängigkeit von manuell definierten Merkmalen überwunden und eine offene Entdeckung vielfältiger Verhaltensweisen in der Reinforcement Learning ermöglicht wird.

Saeed Hedayatian, Stefanos Nikolaidis2026-03-05🤖 cs.AI

Robust Adversarial Quantification via Conflict-Aware Evidential Deep Learning

Die vorgestellte Arbeit führt Conflict-Aware Evidential Deep Learning (C-EDL) ein, eine leichte Nachbearbeitungsmethode, die durch die Quantifizierung von Repräsentationswidersprüchen mittels diverser Transformationen die Robustheit von Evidential Deep Learning gegenüber adversariellen Angriffen und Out-of-Distribution-Daten signifikant verbessert, ohne dass ein Nachtraining erforderlich ist.

Charmaine Barker, Daniel Bethell, Simos Gerasimou2026-03-05🤖 cs.AI

UMA: A Family of Universal Models for Atoms

Meta FAIR stellt UMA vor, eine Familie universeller Atommodelle, die auf einer einzigartigen Datenbank von 500 Millionen 3D-Strukturen trainiert wurden und durch eine innovative Architektur aus linearen Experten sowohl hohe Genauigkeit als auch Geschwindigkeit bieten, wodurch ein einzelnes Modell ohne Feinabstimmung in der Lage ist, spezialisierte Modelle in verschiedenen chemischen und materialwissenschaftlichen Anwendungen zu übertreffen.

Brandon M. Wood, Misko Dzamba, Xiang Fu + 15 more2026-03-05🤖 cs.LG

Fast Equivariant Imaging: Acceleration for Unsupervised Learning via Augmented Lagrangian and Auxiliary PnP Denoisers

Die vorgestellte Arbeit entwickelt „Fast Equivariant Imaging" (FEI), ein neuartiges unüberwachtes Lernframework, das durch die Kombination von Augmented Lagrangian und Plug-and-Play-Denoisern das Training von Bildgebungsnetzwerken ohne Ground-Truth-Daten um den Faktor 10 beschleunigt und gleichzeitig die Generalisierungsleistung verbessert.

Guixian Xu, Jinglai Li, Junqi Tang2026-03-05🤖 cs.LG

Effective Sample Size and Generalization Bounds for Temporal Networks

Die Arbeit schlägt eine abhängigkeitssensible Evaluierungsmethodik vor, die die effektive Stichprobengröße statt der Rohlänge berücksichtigt, und liefert damit generalisierbare Garantien für Temporal Convolutional Networks auf β-mischenden Sequenzen, die zeigen, dass stärkere zeitliche Abhängigkeiten bei korrekter Kontrolle die Generalisierungslücken sogar verringern können.

Barak Gahtan, Alex M. Bronstein2026-03-05🤖 cs.AI