Posterior Sampling Reinforcement Learning with Gaussian Processes for Continuous Control: Sublinear Regret Bounds for Unbounded State Spaces

Diese Arbeit leitet sublineare Bayes'sche Regret-Schranken für den GP-PSRL-Algorithmus in kontinuierlichen Steuerungsproblemen mit unbeschränkten Zustandsräumen her, indem sie durch eine rekursive Anwendung der Borell-Tsirelson-Ibragimov-Sudakov-Ungleichung und die Kettenmethode die Beschränktheit der besuchten Zustände nachweist und eine enge Abhängigkeit vom maximalen Informationsgewinn erreicht.

Hamish Flynn, Joe Watson, Ingmar Posner, Jan PetersTue, 10 Ma🤖 cs.LG

Beyond the Markovian Assumption: Robust Optimization via Fractional Weyl Integrals in Imbalanced Data

Diese Arbeit stellt einen neuartigen Optimierungsalgorithmus auf Basis der fraktionalen Kalkültheorie vor, der durch den Einsatz des Weighted Fractional Weyl Integrals als dynamischen Gedächtnisoperator die Nachteile lokaler Gradientenverfahren überwindet und in stark unausgewogenen Datensätzen wie denen der Finanzbetrugserkennung signifikant robustere Ergebnisse erzielt.

Gustavo A. DorregoTue, 10 Ma🤖 cs.LG

Breaking the Bias Barrier in Concave Multi-Objective Reinforcement Learning

Diese Arbeit überwindet die durch die Verzerrung von Schätzern bei nichtlinearen Nutzenfunktionen verursachte Ineffizienz im multi-objektiven Reinforcement Learning, indem sie einen Natural Policy Gradient-Algorithmus mit einem Multi-Level-Monte-Carlo-Schätzer entwickelt, der die optimale Stichprobenkomplexität von O~(ϵ2)\widetilde{\mathcal{O}}(\epsilon^{-2}) erreicht.

Swetha Ganesh, Vaneet AggarwalTue, 10 Ma🤖 cs.LG

Impact of Connectivity on Laplacian Representations in Reinforcement Learning

Diese Arbeit leitet eine obere Schranke für den Approximationsfehler linearer Wertfunktionsapproximationen in der Verstärkungslernung her, die zeigt, wie sich die Qualität der Laplace-basierten Zustandsrepräsentation mit der algebraischen Konnektivität des Übergangsgraphen skaliert, und liefert dabei eine vollständige Fehlerzerlegung für den gesamten Lernprozess ohne Annahmen zur Symmetrie der Übergangskernel.

Tommaso Giorgi, Pierriccardo Olivieri, Keyue Jiang, Laura Toni, Matteo PapiniTue, 10 Ma🤖 cs.LG

Disjunctive Branch-and-Bound for Certifiably Optimal Low-Rank Matrix Completion

Dieses Paper stellt eine neue Methode vor, die Low-Rank-Matrix-Vervollständigung durch eine disjunktive Branch-and-Bound-Strategie und neuartige konvexe Relaxierungen löst, um für Probleme bis zu 2500 Dimensionen und Rang 5 zertifizierbare Optimalität zu erreichen und dabei die Testfehler im Vergleich zu etablierten Heuristiken signifikant zu senken.

Dimitris Bertsimas, Ryan Cory-Wright, Sean Lo, Jean PauphiletThu, 12 Ma📊 stat

Optimal Transport Aggregation for Distributed Mixture-of-Experts

Der Artikel stellt ein effizientes, auf Optimaler Transport basierendes Aggregationsverfahren für verteilte Mixture-of-Experts-Modelle vor, das durch Minimierung einer Transportdivergenz eine globale Schätzung mit nur einem Kommunikationsschritt ermöglicht und dabei statistische Konsistenz sowie eine dem zentralen Training vergleichbare Leistung bei deutlich reduzierter Rechenzeit garantiert.

Faïcel Chamroukhi, Nhat Thien PhamThu, 12 Ma📊 stat

Losing dimensions: Geometric memorization in generative diffusion

Die Studie zeigt, dass Diffusionsmodelle bei knappen Daten nicht abrupt, sondern durch einen allmählichen geometrischen Zusammenbruch ihrer latenten Dimensionalität memorieren, bei dem zunächst markante Merkmale und dann feinere Details eingefroren werden, was zu einer Phase zwischen Generalisierung und exakter Kopie führt.

Beatrice Achilli, Enrico Ventura, Gianluigi Silvestri, Bao Pham, Gabriel Raya, Dmitry Krotov, Carlo Lucibello, Luca AmbrogioniThu, 12 Ma📊 stat

Conditional Local Importance by Quantile Expectations

Die Arbeit stellt CLIQUE vor, eine neue modellunabhängige Methode zur Berechnung der lokalen Variablenwichtigkeit, die im Gegensatz zu etablierten Verfahren wie LIME und SHAP lokale Abhängigkeiten und Interaktionen erfasst, insbesondere bei Mehrklassen-Klassifikationsproblemen, und Verzerrungen in Bereichen reduziert, in denen Variablen keinen Einfluss auf die Antwort haben.

Kelvyn K. Bladen, Adele Cutler, D. Richard Cutler, Kevin R. MoonThu, 12 Ma📊 stat

An Algorithm to perform Covariance-Adjusted Support Vector Classification in Non-Euclidean Spaces

Die Studie stellt einen Algorithmus vor, der die Support-Vector-Classification in nicht-euklidischen Räumen durch die Integration der Datenkovarianz mittels Cholesky-Zerlegung in das Optimierungsproblem verbessert und damit die Suboptimalität herkömmlicher KKT-Bedingungen sowie eine signifikant höhere Klassifikationsleistung im Vergleich zu traditionellen SVM-Ansätzen nachweist.

Satyajeet Sahoo, Jhareswar MaitiThu, 12 Ma📊 stat