Adaptive and Stratified Subsampling for High-Dimensional Robust Estimation

Diese Arbeit stellt zwei Subsampling-Schätzer, Adaptive Importance Sampling und Stratified Sub-sampling, für die robuste hochdimensionale Regression unter schweren Verteilungen, Kontamination und zeitlicher Abhängigkeit vor, schließt die Lücke zwischen Theorie und Algorithmus durch präzise Konvergenzgarantien und ermöglicht gültige Konfidenzintervalle, wobei empirische Ergebnisse eine signifikante Fehlerreduktion im Vergleich zu herkömmlichen Methoden zeigen.

Prateek Mittal, Joohi ChauhanWed, 11 Ma🤖 cs.LG

Refining Cramér-Rao Bound With Multivariate Parameters: An Extrinsic Geometry Perspective

Diese Arbeit leitet eine vektorielle Verallgemeinerung des gekrümmten Cramér-Rao-Unterschreitungsgrenzen im nicht-asymptotischen Regime her, indem sie extrinsische Geometrie und Sum-of-Squares-Optimierung nutzt, um die Limitationen klassischer zweiter Ordnungskorrekturen bei der Schätzung in gekrümmten statistischen Familien aufzulösen und präzisere, richtungsabhängige Schranken zu etablieren.

Sunder Ram KrishnanWed, 11 Ma📊 stat

Robust Assortment Optimization from Observational Data

Diese Arbeit stellt einen robusten Rahmen für die assortmentsbasierte Optimierung vor, der unter Unsicherheit durch Verteilungsverschiebungen im Kundenverhalten die worst-case-Erlöse maximiert und dabei durch die Einführung des Konzepts der „robusten artikelweisen Abdeckung" statistisch effiziente Algorithmen mit optimalen Stichprobenkomplexitätsgrenzen entwickelt.

Miao Lu, Yuxuan Han, Han Zhong, Zhengyuan Zhou, Jose BlanchetWed, 11 Ma🤖 cs.LG

Multidimensional Dickman distribution and operator selfdecomposability

Diese Arbeit erweitert die Definition der mehrdimensionalen Dickman-Verteilung auf vektorwertige Zufallsgrößen, charakterisiert sie als Fixpunkte einer affinen Transformation mit einer Matrixexponential-verteilten Zufallsmatrix und beweist deren unendliche Teilbarkeit sowie Operator-Selbstzerlegbarkeit, während zudem Fälle identifiziert werden, in denen diese Verteilung als Grenzwert auftritt.

Anastasiia S. Kovtun, Nikolai N. Leonenko, Andrey PepelyshevWed, 11 Ma📊 stat

Second order asymptotics for the number of times an estimator is more than epsilon from its target value

Diese Arbeit untersucht zweite Ordnungs-Asymptotiken für die Anzahl der Abweichungen eines Schätzers von seinem Zielwert, um konkurrierende Schätzer mit identischen Grenzverteilungen durch das Konzept der „asymptotischen relativen Defizienz" zu unterscheiden und zeigt beispielsweise, dass die Schätzung der Normalvarianz mit dem Nenner n1/3n-1/3 optimal ist.

Nils Lid Hjort, Grete FenstadWed, 11 Ma📊 stat

Uniform Lorden-type bounds for overshoot moments for standard exponential families: small drift and an exponential correction

Diese Arbeit leitet für den Überschuss eines Random Walks aus einer standardisierten Exponentialfamilie im Regime kleiner Drift gleichmäßige Lorden-artige Momentenschranken mit expliziten, exponentiell in der Barriere abklingenden Restgliedern her und zeigt, dass sich die klassische Konstante für große Barrieren auf 1 verbessert, wobei die Konvergenzgeschwindigkeit zudem im Sinne optimalen Transports interpretiert wird.

El'mira Yu. Kalimulina, Mark Ya. KelbertWed, 11 Ma📊 stat

On the last time and the number of times an estimator is more than epsilon from its target value

Diese Arbeit leitet unter schwachen Bedingungen die Grenzwertverteilungen für die letzte Zeit und die Gesamtanzahl der Abweichungen eines stark konsistenten Schätzers von seinem Zielwert ab, wodurch neue Optimalitätseigenschaften für Maximum-Likelihood-Schätzer sowie Methoden für sequenzielle Konfidenzmengen und Tests in parametrischen, nichtparametrischen und nicht-i.i.d.-Szenarien etabliert werden.

Nils Lid Hjort, Grete FenstadWed, 11 Ma📊 stat

Nonparametric two-sample hypothesis testing for low-rank random graphs of differing sizes

Dieses Paper stellt einen nichtparametrischen Zweistichproben-Test vor, der unter Verwendung von Graph-Embeddings, optimaler Transporttheorie und der Maximum Mean Discrepanz prüft, ob zwei Netzwerke unterschiedlicher Größe aus derselben Verteilung stammen, wobei die Konsistenz des Tests für dichte Graphen bewiesen und in verschiedenen Sparsity-Regimen untersucht wird.

Joshua Agterberg, Minh Tang, Carey PriebeTue, 10 Ma🔢 math