A recipe for scalable attention-based MLIPs: unlocking long-range accuracy with all-to-all node attention

Die Arbeit stellt AllScAIP vor, einen skalierbaren, auf All-to-All-Attention basierenden Machine-Learning-Interatomic-Potential-Ansatz, der durch einen rein datengetriebenen Mechanismus langreichweitige Wechselwirkungen präzise erfasst und dabei in großen Datenszenarien traditionelle physikalische Induktionsvoraussetzungen übertrifft.

Eric Qu, Brandon M. Wood, Aditi S. Krishnapriyan, Zachary W. Ulissi2026-03-09🔬 cond-mat.mtrl-sci

Zeroth-Order primal-dual Alternating Projection Gradient Algorithms for Nonconvex Minimax Problems with Coupled linear Constraints

Diese Arbeit stellt zwei einstufige Nullter-Ordnung-Primal-Dual-Algorithmen vor, die erstmals iterative Komplexitätsgarantien für nichtkonvexe-(stark) konkave Minimax-Probleme mit gekoppelten linearen Nebenbedingungen unter deterministischen und stochastischen Bedingungen bieten und dabei den aktuellen Stand der Technik übertreffen.

Huiling Zhang, Zi Xu, Yuhong Dai2026-03-06🔢 math

Distilling Privileged Information for Dubins Traveling Salesman Problems with Neighborhoods

Dieser Artikel stellt eine neuartige Lernmethode vor, die durch die Distillation privilegierter Informationen aus LKH-Heuristiken und eine anschließende überwachtes Anpassung den Dubins-Reisenden-Problem mit Nachbarschaften (DTSPN) für nicht-holonome Fahrzeuge etwa 50-mal schneller löst als herkömmliche Ansätze und dabei eine vollständige Erfassung aller Aufgabenpunkte gewährleistet.

Min Kyu Shin, Su-Jeong Park, Seung-Keol Ryu + 2 more2026-03-06💻 cs

Learning to Cover: Online Learning and Optimization with Irreversible Decisions

Die Arbeit entwickelt einen asymptotisch optimalen Algorithmus für ein Online-Lern- und Optimierungsproblem mit irreversiblen Entscheidungen, der durch eine anfängliche begrenzte Exploration und anschließende schnelle Ausbeutung die Anzahl der zu öffnenden Einrichtungen unter einer Wahrscheinlichkeitsbedingung minimiert und dabei sublineare Regret-Schranken für verschiedene Lernraten und Fehlermodelle herleitet.

Alexandre Jacquillat, Michael Lingzhi Li2026-03-06🔢 math

Towards a Fairer Non-negative Matrix Factorization

Diese Arbeit stellt eine faire Variante der nicht-negativen Matrixfaktorisierung (NMF) vor, die durch eine Min-Max-Formulierung des Zielfunktions-Optimierungsproblems die Fairness für Bevölkerungsgruppen verbessert, wobei die Autoren auf die Notwendigkeit hinweisen, dass dies zu Lasten der Genauigkeit für einzelne Individuen gehen kann und die Methode stark anwendungsspezifisch gewählt werden muss.

Lara Kassab, Erin George, Deanna Needell + 3 more2026-03-06💻 cs

Generalization Bounds for Markov Algorithms through Entropy Flow Computations

Diese Arbeit erweitert die Anwendbarkeit von Entropiefluss-Methoden zur Herleitung von Generalisierungsschranken auf alle lernenden Algorithmen, deren iterative Dynamik durch einen zeit-homogenen Markov-Prozess beschrieben wird, indem sie eine exakte Entropiefluss-Formel und Verbindungen zu modifizierten logarithmischen Sobolev-Ungleichungen einführt.

Benjamin Dupuis, Maxime Haddouche, George Deligiannidis + 1 more2026-03-06💻 cs

FBFL: A Field-Based Coordination Approach for Data Heterogeneity in Federated Learning

Die Arbeit stellt FBFL vor, einen neuartigen, auf Feldkoordinierung basierenden Ansatz für das Federated Learning, der durch dezentrale, räumlich organisierte Hierarchien und personalisierte Leader-Election-Verfahren nicht nur die Herausforderungen nicht-identisch verteilter (non-IID) Daten effektiv löst, sondern auch die Skalierbarkeit und Ausfallsicherheit gegenüber zentralisierten Architekturen wie FedAvg, FedProx und Scaffold verbessert.

Davide Domini, Gianluca Aguzzi, Lukas Esterle + 1 more2026-03-06💻 cs

Double Momentum and Error Feedback for Clipping with Fast Rates and Differential Privacy

Die Autoren stellen Clip21-SGD2M vor, einen neuen Algorithmus für das Federated Learning, der durch eine innovative Kombination aus Clipping, Heavy-Ball-Momentum und Error Feedback sowohl optimale Konvergenzraten bei beliebiger Datenheterogenität als auch starke lokale Differentialprivatsphäre-Garantien ohne restriktive Annahmen erreicht.

Rustem Islamov, Samuel Horvath, Aurelien Lucchi + 2 more2026-03-06🔢 math