Verifying Good Regulator Conditions for Hypergraph Observers: Natural Gradient Learning from Causal Invariance via Established Theorems

Dit artikel verifieert dat persistente waarnemers in hypergraafsubstraten voldoen aan de Conant-Ashby Good Regulator-theorema, waardoor natuurlijke gradiëntafstijging als unieke leerregel wordt afgeleid en een verband wordt gelegd tussen Wolfram's hypergrafen en Vanchurin's kosmologie via een modelafhankelijke afleiding van de regimeparameter alpha.

Max ZhuravlevWed, 11 Ma🤖 cs.LG

A Generative Sampler for distributions with possible discrete parameter based on Reversibility

Deze paper introduceert een uniek generatief steekproefkader dat, door het minimaliseren van de Maximum Mean Discrepancy tussen voorwaartse en achterwaartse Markov-trajecten onder de beperking van reversibiliteit, het mogelijk maakt om te leren van complexe, niet-genormaliseerde verdelingen in continue, discrete en hybride ruimtes zonder gebruik te maken van gradients of scorefuncties.

Lei Li, Zhen Wang, Lishuo ZhangWed, 11 Ma🤖 cs.LG

Transductive Generalization via Optimal Transport and Its Application to Graph Node Classification

Dit artikel introduceert nieuwe, efficiënt berekenbare transductieve generalisatiegrenzen voor grafnodeclassificatie op basis van optimale transport en Wasserstein-afstanden, die empirisch beter presteren dan klassieke complexiteitsmaten en het niet-monotone effect van GNN-diepte op generalisatie verklaren.

MoonJeong Park, Seungbeom Lee, Kyungmin Kim, Jaeseung Heo, Seunghyuk Cho, Shouheng Li, Sangdon Park, Dongwoo KimWed, 11 Ma🤖 cs.LG

On Regret Bounds of Thompson Sampling for Bayesian Optimization

Dit artikel vult bestaande kennisgaten over de spijtbegrensingen van Gaussian Process Thompson Sampling (GP-TS) in door zowel een ondergrens als verbeterde bovengrenzen voor de verwachte, leniente en cumulatieve spijt af te leiden, waarbij wordt aangetoond dat GP-TS een polynoomafhankelijkheid van $1/\delta$ vertoont en dat recente verbeteringen voor GP-UCB ook op GP-TS van toepassing zijn.

Shion Takeno, Shogo IwazakiWed, 11 Ma🤖 cs.LG

A Gaussian Comparison Theorem for Training Dynamics in Machine Learning

Dit paper presenteert een niet-asymptotisch resultaat dat de trainingsdynamica van machine learning-modellen onder een Gaussisch mengselmodel koppelt aan een makkelijker te analyseren surrogaat-dynamisch systeem, waarbij gebruik wordt gemaakt van de Gordon-vergelijkingstheorema om de geldigheid van dynamische mean-field-expressies te bewijzen en een iteratief verfijningsschema voor niet-asymptotische scenario's voor te stellen.

Ashkan PanahiWed, 11 Ma🤖 cs.LG

Robust Regularized Policy Iteration under Transition Uncertainty

Deze paper introduceert Robust Regularized Policy Iteration (RRPI), een methode voor offline versterkend leren die prestatie-degradatie door verdelingsverschuiving en transitie-onzekerheid aanpakt door het leerproces te formuleren als robuuste optimalisatie tegenover de slechtst mogelijke dynamica binnen een onzekerheidsset, wat resulteert in een efficiënt iteratief algoritme met theoretische convergentiegaranties en superieure prestaties op D4RL-benchmarks.

Hongqiang Lin, Zhenghui Fu, Weihao Tang, Pengfei Wang, Yiding Sun, Qixian Huang, Dongxu ZhangWed, 11 Ma🤖 cs.AI

MM-algorithms for traditional and convex NMF with Tweedie and Negative Binomial cost functions and empirical evaluation

Deze paper introduceert een unifyend kader voor traditionele en convexe niet-negatieve matrixfactorisatie (NMF) met Tweedie- en Negatief Binomiale kostenfuncties, waarbij nieuwe Majorize-Minimiseer-update-regels worden afgeleid en empirisch gevalideerd om te tonen dat de keuze van het ruismodel cruciaal is voor modelfit en dat convexe NMF een robuust alternatief biedt bij grote aantallen klassen.

Elisabeth Sommer James, Asger Hobolth, Marta PelizzolaWed, 11 Ma🤖 cs.LG

On the Width Scaling of Neural Optimizers Under Matrix Operator Norms I: Row/Column Normalization and Hyperparameter Transfer

Dit paper introduceert een nieuwe familie van gemiddeld genormaliseerde operatornormen en de MOGA-optimizer om breedte-onafhankelijke stabiliteit en effectieve hyperparameter-overdracht te garanderen voor neurale netwerken, waarbij het de stabiliteit van Muon verbetert en snellere prestaties bereikt in grote-token en laag-verlies regimes.

Ruihan Xu, Jiajin Li, Yiping LuWed, 11 Ma🤖 cs.LG