Low-Rank and Sparse Drift Estimation for High-Dimensional Lévy-Driven Ornstein--Uhlenbeck Processes

Cet article propose un estimateur convexe combinant pénalités de norme nucléaire et 1\ell_1 pour estimer la dérive de processus d'Ornstein-Uhlenbeck de haute dimension pilotés par un bruit de Lévy, en exploitant une structure décomposée en composante de bas rang et composante creuse afin d'obtenir une inégalité oracle non asymptotique qui améliore la dépendance en la dimension ambiante par rapport aux estimateurs purement creux.

Marina PalaistiFri, 13 Ma📊 stat

Chemical Reaction Networks Learn Better than Spiking Neural Networks

Ce papier démontre mathématiquement et expérimentalement que les réseaux de réactions chimiques sans couches cachées surpassent les réseaux de neurones à impulsions nécessitant des couches cachées pour l'apprentissage de tâches de classification, offrant ainsi une explication mathématique à l'efficacité potentielle de l'apprentissage dans les réseaux biochimiques cellulaires.

Sophie Jaffard, Ivo F. SbalzariniFri, 13 Ma📊 stat

A Quantitative Characterization of Forgetting in Post-Training

Ce papier propose une caractérisation quantitative du phénomène d'oubli lors du post-entraînement continu de modèles génératifs en démontrant théoriquement comment la direction de la divergence (KL direct ou inverse), le chevauchement géométrique des modes et les stratégies d'échantillonnage déterminent respectivement l'effondrement des poids des anciennes tâches ou leur dérive contrôlée.

Krishnakumar Balasubramanian, Shiva Prasad KasiviswanathanFri, 13 Ma📊 stat

On noncentral Wishart mixtures of noncentral Wisharts and their use for testing random effects in factorial design models

Cet article démontre qu'un mélange de distributions de Wishart non centrales partageant les mêmes degrés de liberté reste une distribution de Wishart non centrale, un résultat qui permet d'étendre la théorie des tests d'effets aléatoires aux modèles de plans factoriels avec des données normales multidimensionnelles.

Christian Genest, Anne MacKay, Frédéric Ouimet2026-03-10📊 stat

Pseudo-likelihood-based MM-estimation of random graphs with dependent edges and parameter vectors of increasing dimension

Cet article établit des taux de convergence pour des estimateurs M basés sur la pseudo-vraisemblance appliqués à des modèles de graphes aléatoires avec des arêtes dépendantes et des paramètres de dimension croissante, en analysant l'impact des transitions de phase et de la quasi-dégénérescence du modèle, notamment à travers une nouvelle classe de modèles β\beta généralisés.

Jonathan R. Stewart, Michael Schweinberger2026-03-06🔢 math

Some facts about the optimality of the LSE in the Gaussian sequence model with convex constraint

Cet article caractérise les conditions nécessaires et suffisantes pour l'optimalité minimax de l'estimateur des moindres carrés dans un modèle de séquence gaussienne sous contrainte convexe, en reliant cette propriété à la régularité lipschitzienne de la largeur gaussienne locale et en illustrant ces résultats sur divers ensembles géométriques.

Akshay Prasadan, Matey Neykov2026-03-06🔢 math

Estimation of relative risk, odds ratio and their logarithms with guaranteed accuracy and controlled sample size ratio

Cet article propose des estimateurs basés sur un échantillonnage séquentiel à deux étapes pour le risque relatif, le rapport de cotes et leurs logarithmes, garantissant une erreur quadratique moyenne relative inférieure à une valeur cible pour tout paramètre de probabilité tout en maintenant un rapport de taille d'échantillon proche d'une valeur prescrite.

Luis Mendo2026-03-06🔢 math

Enabling stratified sampling in high dimensions via nonlinear dimensionality reduction

Cet article propose une méthode utilisant les variétés actives neuronales pour réduire la dimensionnalité d'un modèle coûteux et permettre un échantillonnage stratifié efficace en haute dimension, en alignant les partitions de l'espace d'entrée sur les ensembles de niveau de la réponse du modèle afin de réduire la variance des estimateurs.

Gianluca Geraci, Daniele E. Schiavazzi, Andrea Zanoni2026-03-06🔢 math

Latent-IMH: Efficient Bayesian Inference for Inverse Problems with Approximate Operators

L'article présente Latent-IMH, une méthode d'échantillonnage bayésien efficace pour les problèmes inverses linéaires avec des opérateurs coûteux, qui génère des variables latentes via une approximation rapide avant de les affiner avec l'opérateur exact, surpassant ainsi des méthodes de l'état de l'art comme NUTS en termes d'efficacité computationnelle.

Youguang Chen, George Biros2026-03-06🔢 math