Finite Neural Networks as Mixtures of Gaussian Processes: From Provable Error Bounds to Prior Selection

Diese Arbeit stellt einen algorithmischen Rahmen vor, der endliche neuronale Netze durch Mischungen aus Gauß-Prozessen mit nachweisbaren Fehlergrenzen approximiert und somit eine präzise Unsicherheitsquantifizierung sowie die Anpassung von Netzwerkkonfigurationen an gewünschte Gauß-Prozess-Verhalten ermöglicht.

Steven Adams, Andrea Patanè, Morteza Lahijanian, Luca Laurenti2026-03-24📊 stat

Multilevel Picard approximations and deep neural networks with ReLU, leaky ReLU, and softplus activation overcome the curse of dimensionality when approximating semilinear parabolic partial differential equations in LpL^p-sense

Die Arbeit zeigt, dass Multilevel-Picard-Approximationen und tiefe neuronale Netze mit ReLU-, leaky-ReLU- und Softplus-Aktivierungsfunktionen semilineare parabolische partielle Differentialgleichungen in der LpL^p-Norm ohne den Fluch der Dimensionalität approximieren können, wobei sich der Rechenaufwand und die Anzahl der Parameter höchstens polynomial in der Dimension und dem Kehrwert der Genauigkeit verhalten.

Ariel Neufeld, Tuan Anh Nguyen2026-03-24🤖 cs.LG

Sliding Puzzles Gym: A Scalable Benchmark for State Representation in Visual Reinforcement Learning

Die Arbeit stellt das skalierbare Benchmark-System „Sliding Puzzles Gym" (SPGym) vor, das es ermöglicht, die Herausforderungen des visuellen Repräsentationslernens in der Verstärkungslernung systematisch zu isolieren und zu untersuchen, wobei Experimente zeigen, dass aktuelle Algorithmen bei zunehmender visueller Vielfalt versagen und oft einfachere Methoden wie Daten-Augmentierung überlegen sind.

Bryan L. M. de Oliveira, Luana G. B. Martins, Bruno Brandão, Murilo L. da Luz, Telma W. de L. Soares, Luckeciano C. Melo2026-03-24🤖 cs.LG

Dirichlet process mixtures of block gg priors for model selection and prediction in linear models

Diese Arbeit stellt Dirichlet-Prozess-Mischungen aus Block-gg-Priors für die Modellauswahl und Vorhersage in linearen Modellen vor, die eine konsistente, korrelationsberücksichtigende Schätzung ermöglichen, das Lindley-Paradoxon vermeiden und in Simulationen sowie realen Daten eine hohe Entdeckungswahrscheinlichkeit bei geringen Fehlalarmen bieten.

Anupreet Porwal, Abel Rodriguez2026-03-24📊 stat