Cost-Driven Representation Learning for Linear Quadratic Gaussian Control: Part I

Dieser Beitrag stellt eine kostengesteuerte Methode zur Erlernung von Zustandsrepräsentationen für die lineare quadratische Gaußsche (LQG) Steuerung vor und liefert erstmals endliche Stichproben-Garantien für die Konvergenz zu einem nahezu optimalen Regler, indem ein latentes Modell ausschließlich durch die Vorhersage von Kosten statt von Beobachtungen gelernt wird.

Yi Tian, Kaiqing Zhang, Russ Tedrake, Suvrit SraTue, 10 Ma🤖 cs.LG

A Robust Multi-Item Auction Design with Statistical Learning

Die Autoren stellen eine neuartige statistische Lernmethode für Multi-Item-Auktionen vor, die auf nichtparametrischer Dichteschätzung und Konfidenzintervallen basiert, um durch zwei effiziente Strategien die Implementierungskosten zu senken und gleichzeitig hohe Wahrscheinlichkeiten für Fairness, Anreizkompatibilität und individuelle Rationalität bei gleichzeitiger Umsatzmaximierung zu gewährleisten.

Jiale Han, Xiaowu DaiTue, 10 Ma💻 cs

Mini-batch Estimation for Deep Cox Models: Statistical Foundations and Practical Guidance

Die Arbeit etabliert die statistischen Grundlagen des Mini-Batch-Maximum-Partial-Likelihood-Schätzers (mb-MPLE) für Deep-Cox-Modelle, beweist dessen Konsistenz und asymptotische Normalität und liefert praktische Richtlinien für das Hyperparameter-Tuning sowie die Anwendung in großskaligen Szenarien, in denen herkömmliche Schätzer nicht berechenbar sind.

Lang Zeng, Weijing Tang, Zhao Ren, Ying DingTue, 10 Ma🤖 cs.LG

Variational Learning of Gaussian Process Latent Variable Models through Stochastic Gradient Annealed Importance Sampling

Diese Arbeit schlägt einen effizienten Annealed Importance Sampling-Ansatz zur Verbesserung des Variational Learning von Gaussian Process Latent Variable Models vor, der durch eine sequenzielle Transformation der Posterior-Verteilung und eine Reparameterisierung des ELBO robustere Konvergenz und engere Variationsgrenzen als bestehende Methoden erreicht.

Jian Xu, Shian Du, Junmei Yang, Qianli Ma, Delu Zeng, John PaisleyTue, 10 Ma🤖 cs.LG

Faster Gradient Methods for Highly-Smooth Stochastic Bilevel Optimization

Diese Arbeit schlägt die Klasse von Methoden F²SA-p vor, die durch die Verwendung von p-ter Ordnung endlichen Differenzen zur Approximation des Hypergradienten die Komplexität für stochastische Bilevel-Optimierungsprobleme mit hochgradig glatten Funktionen auf O~(pϵ4p/2)\tilde{\mathcal{O}}(p \epsilon^{-4-p/2}) verbessert und damit nahezu die untere Schranke von Ω(ϵ4)\Omega(\epsilon^{-4}) erreicht.

Lesi Chen, Junru Li, El Mahdi Chayti, Jingzhao ZhangTue, 10 Ma🤖 cs.LG

Overlap-Adaptive Regularization for Conditional Average Treatment Effect Estimation

Diese Arbeit stellt die Overlap-Adaptive Regularisierung (OAR) vor, eine neuartige Methode, die die Schätzung des bedingten durchschnittlichen Behandlungseffekts (CATE) in Bereichen mit geringer Überlappung verbessert, indem sie die Regularisierung bestehender Meta-Learner proportional zu den Überlappungsgewichten anpasst.

Valentyn Melnychuk, Dennis Frauen, Jonas Schweisthal, Stefan FeuerriegelTue, 10 Ma🤖 cs.LG

An Orthogonal Learner for Individualized Outcomes in Markov Decision Processes

Diese Arbeit stellt den DRQ-Lerner vor, einen neuartigen Meta-Lerner für Markov-Entscheidungsprozesse, der auf Beobachtungsdaten basiert und durch Eigenschaften wie doppelte Robustheit, Neyman-Orthogonalität und quasi-orakel-effiziente Schätzung eine theoretisch fundierte und flexible Lösung für die Vorhersage individueller Ergebnisse in der personalisierten Medizin bietet.

Emil Javurek, Valentyn Melnychuk, Jonas Schweisthal, Konstantin Hess, Dennis Frauen, Stefan FeuerriegelTue, 10 Ma🤖 cs.LG