Einstein from Noise: Statistical Analysis

Cet article propose une analyse statistique complète du phénomène « Einstein from noise », démontrant mathématiquement que l'alignement et la moyenne d'observations purement bruitées sur un modèle de référence conduisent inévitablement à une reconstruction qui imite la structure et les phases de ce modèle, révélant ainsi un biais fondamental dans les techniques d'appariement de modèles.

Amnon Balanov, Wasim Huleihel, Tamir BendoryWed, 11 Ma⚡ eess

Adaptive and Stratified Subsampling for High-Dimensional Robust Estimation

Ce papier propose et analyse théoriquement deux estimateurs par sous-échantillonnage, l'échantillonnage d'importance adaptatif et le sous-échantillonnage stratifié, pour réaliser une régression robuste en haute dimension sous des hypothèses de bruit à variance finie, de contamination et de dépendance temporelle, tout en fournissant des intervalles de confiance valides et démontrant des performances empiriques supérieures.

Prateek Mittal, Joohi ChauhanWed, 11 Ma🤖 cs.LG

Refining Cramér-Rao Bound With Multivariate Parameters: An Extrinsic Geometry Perspective

Cet article propose une généralisation vectorielle de la borne de Cramér-Rao corrigée par la courbure dans le régime non asymptotique, en utilisant une perspective de géométrie extrinsèque pour établir des corrections directionnelles et des bornes matricielles certifiées par des programmes semi-définis, offrant ainsi une représentation plus fidèle des limites fondamentales de l'estimation dans les familles statistiques courbes que les approches classiques.

Sunder Ram KrishnanWed, 11 Ma📊 stat

Multidimensional Dickman distribution and operator selfdecomposability

Cet article généralise la distribution de Dickman multidimensionnelle à des éléments aléatoires vectoriels, en démontrant qu'elles sont des points fixes d'une transformation affine spécifique et possèdent les propriétés d'infinie divisibilité et d'autodécomposabilité par opérateur, tout en identifiant plusieurs cas où elles apparaissent comme lois limites.

Anastasiia S. Kovtun, Nikolai N. Leonenko, Andrey PepelyshevWed, 11 Ma📊 stat

Second order asymptotics for the number of times an estimator is more than epsilon from its target value

Cet article étudie les asymptotiques du second ordre pour le nombre de fois où un estimateur s'écarte de sa valeur cible, introduisant une notion de « déficience relative asymptotique » permettant de distinguer des estimateurs ayant la même efficacité asymptotique, comme le démontre l'optimalité de la formule de variance avec dénominateur n1/3n-1/3.

Nils Lid Hjort, Grete FenstadWed, 11 Ma📊 stat

Uniform Lorden-type bounds for overshoot moments for standard exponential families: small drift and an exponential correction

Cet article établit des bornes uniformes de type Lorden pour les moments de dépassement d'une marche aléatoire issue d'une famille exponentielle standardisée dans le régime de petite dérive, en démontrant une convergence exponentielle vers la limite et en améliorant la constante classique à 1 pour des barrières suffisamment grandes ou une dérive faible.

El'mira Yu. Kalimulina, Mark Ya. KelbertWed, 11 Ma📊 stat

On the last time and the number of times an estimator is more than epsilon from its target value

Cet article établit les lois limites de la dernière occurrence et du nombre total d'écartements d'un estimateur par rapport à sa valeur cible, offrant ainsi de nouveaux critères d'optimalité pour les estimateurs de vraisemblance maximale et des méthodes pour construire des tests séquentiels et des intervalles de confiance adaptatifs dans divers cadres paramétriques et non paramétriques.

Nils Lid Hjort, Grete FenstadWed, 11 Ma📊 stat

Nuisance Function Tuning and Sample Splitting for Optimally Estimating a Doubly Robust Functional

Cet article démontre que, pour estimer des fonctionnels doublement robustes avec des taux de convergence optimaux, il est nécessaire de combiner judicieusement des stratégies de division de l'échantillon et des réglages de lissage (sous- ou sur-lissage) des fonctions de nuisance, permettant ainsi aux estimateurs par plug-in et aux estimateurs corrigés du premier ordre d'atteindre les taux minimax sur toutes les classes de régularité de Hölder.

Sean McGrath, Rajarshi MukherjeeTue, 10 Ma🔢 math