A Semiparametric Nonlinear Mixed Effects Model with Penalized Splines Using Automatic Differentiation

Cet article propose une procédure d'estimation pour les modèles non linéaires à effets mixtes utilisant des splines pénalisées et la différenciation automatique via Template Model Builder, offrant une meilleure performance inférentielle et une charge computationnelle réduite, comme démontré par une étude sur la croissance de la taille des nourrissons.

Matteo D'Alessandro, Magne Thoresen, Øystein SørensenFri, 13 Ma📊 stat

Including historical control data in simultaneous inference for pre-clinical multi-arm studies

Cet article propose des approches bayésiennes dynamiques intégrant des données de contrôles historiques pour réduire la taille des groupes témoins dans les études de toxicologie préclinique à plusieurs bras, tout en maintenant un contrôle satisfaisant du taux d'erreur familiale et en protégeant contre les dérives potentielles.

Max Menssen, Carsten Kneuer, Gyamfi Akyianu, Christian Röver, Tim Friede, Frank SchaarschmidtFri, 13 Ma📊 stat

Exploiting Expertise of Non-Expert and Diverse Agents in Social Bandit Learning: A Free Energy Approach

Cet article propose un algorithme d'apprentissage par bandit social fondé sur l'énergie libre qui permet à un agent d'identifier et d'exploiter efficacement les compétences d'agents non experts et diversifiés sans connaissance de leurs récompenses, garantissant ainsi une convergence théorique vers la politique optimale et une amélioration significative des performances d'apprentissage individuel.

Erfan Mirzaei, Seyed Pooya Shariatpanahi, Alireza Tavakoli, Reshad Hosseini, Majid Nili AhmadabadiFri, 13 Ma📊 stat

Language Generation with Replay: A Learning-Theoretic View of Model Collapse

Cet article propose une analyse théorique de l'effondrement des modèles en génération de langage, démontrant qu'un adversaire de réutilisation des sorties passées limite fondamentalement l'apprentissage dans certains cadres théoriques tout en validant ou en mettant en échec les stratégies pratiques courantes comme le nettoyage des données et le filigrane.

Giorgio Racca, Michal Valko, Amartya SanyalFri, 13 Ma📊 stat

Robust Sequential Hypothesis Testing with Generalized Estimating Equations

Cet article propose une nouvelle méthode de test d'hypothèses séquentielles robuste pour les données longitudinales et groupées, qui élargit la gamme des hypothèses testables sans compromettre la robustesse des estimateurs, tout en fournissant une théorie asymptotique pour les matrices de covariance et en permettant l'application à des données incomplètes via l'imputation multiple.

Nathan T. Provost, Abdus S. WahedFri, 13 Ma📊 stat

EnTransformer: A Deep Generative Transformer for Multivariate Probabilistic Forecasting

Ce papier présente EnTransformer, un cadre de prévision génératif profond qui combine l'engression et les Transformers pour produire des prévisions probabilistes multivariées bien calibrées et cohérentes, surpassant les modèles de référence sur plusieurs benchmarks sans imposer d'hypothèses paramétriques restrictives.

Rajdeep Pathak, Rahul Goswami, Madhurima Panja, Palash Ghosh, Tanujit ChakrabortyFri, 13 Ma📊 stat

Distributionally balanced sampling designs

Cet article propose les plans d'échantillonnage équilibrés distributionnellement (DBD), une nouvelle méthode probabiliste qui maximise la représentativité de l'échantillon en minimisant la distance énergétique entre les distributions auxiliaires de l'échantillon et de la population, offrant ainsi une précision supérieure aux méthodes existantes pour les études coûteuses en écologie et en sciences environnementales.

Anton Grafström, Wilmer PrentiusFri, 13 Ma📊 stat

Bayesian Model Calibration with Integrated Discrepancy: Addressing Inexact Dislocation Dynamics Models

Cet article propose une nouvelle approche de calibration bayésienne qui intègre le terme de discordance directement dans le simulateur via des processus gaussiens, offrant une alternative à la méthode de Kennedy et O'Hagan pour calibrer un modèle de dynamique de dislocations discrète à partir d'observations de dynamique moléculaire.

Liam Myhill, Enrique Martinez Saez, Sez RusscherFri, 13 Ma📊 stat

Uncovering Locally Low-dimensional Structure in Networks by Locally Optimal Spectral Embedding

Cet article propose l'Embedding Spectral Adjacency Local (LASE), une méthode qui révèle la structure localement de faible dimension des réseaux en surmontant les limites des hypothèses globales de l'ASE grâce à une décomposition spectrale pondérée, offrant ainsi de meilleures performances de reconstruction et de visualisation.

Hannah Sansford, Nick Whiteley, Patrick Rubin-DelanchyFri, 13 Ma📊 stat

Low-Rank and Sparse Drift Estimation for High-Dimensional Lévy-Driven Ornstein--Uhlenbeck Processes

Cet article propose un estimateur convexe combinant pénalités de norme nucléaire et 1\ell_1 pour estimer la dérive de processus d'Ornstein-Uhlenbeck de haute dimension pilotés par un bruit de Lévy, en exploitant une structure décomposée en composante de bas rang et composante creuse afin d'obtenir une inégalité oracle non asymptotique qui améliore la dépendance en la dimension ambiante par rapport aux estimateurs purement creux.

Marina PalaistiFri, 13 Ma📊 stat

Chemical Reaction Networks Learn Better than Spiking Neural Networks

Ce papier démontre mathématiquement et expérimentalement que les réseaux de réactions chimiques sans couches cachées surpassent les réseaux de neurones à impulsions nécessitant des couches cachées pour l'apprentissage de tâches de classification, offrant ainsi une explication mathématique à l'efficacité potentielle de l'apprentissage dans les réseaux biochimiques cellulaires.

Sophie Jaffard, Ivo F. SbalzariniFri, 13 Ma📊 stat

A Quantitative Characterization of Forgetting in Post-Training

Ce papier propose une caractérisation quantitative du phénomène d'oubli lors du post-entraînement continu de modèles génératifs en démontrant théoriquement comment la direction de la divergence (KL direct ou inverse), le chevauchement géométrique des modes et les stratégies d'échantillonnage déterminent respectivement l'effondrement des poids des anciennes tâches ou leur dérive contrôlée.

Krishnakumar Balasubramanian, Shiva Prasad KasiviswanathanFri, 13 Ma📊 stat