Conditional Rank-Rank Regression via Deep Conditional Transformation Models

Diese Arbeit stellt eine Methode zur konditionalen Rang-Rang-Regression vor, die auf tiefen konditionalen Transformationsmodellen (DCTM) basiert, um die intergenerationale Mobilität unter Berücksichtigung von Kovariaten und für sowohl kontinuierliche als auch diskrete geordnete Ergebnisse präziser zu schätzen und dabei nichtlineare Effekte sowie komplexe Interaktionen zu erfassen.

Xiaoyi Wang, Long Feng, Zhaojun WangTue, 10 Ma🤖 cs.LG

Cost-Driven Representation Learning for Linear Quadratic Gaussian Control: Part II

Dieser zweite Teil der Arbeit untersucht kostengesteuertes Repräsentationslernen für die lineare quadratische Gaußsche (LQG) Regelung mit unendlichem Zeithorizont, indem er finite-Sample-Garantien für die Lernverfahren bietet, die entweder explizite oder implizite latente Dynamikmodelle (ähnlich MuZero) nutzen, und dabei eine neue technische Leistung zur Persistenz der Erregung für stochastische Prozesse erbringt.

Yi Tian, Kaiqing Zhang, Russ Tedrake, Suvrit SraTue, 10 Ma🤖 cs.LG

Reject, Resample, Repeat: Understanding Parallel Reasoning in Language Model Inference

Diese Arbeit untersucht paralleles Schließen in Sprachmodellen durch die Anwendung von Partikelfilter-Algorithmen wie Sequential Monte Carlo, um theoretische Garantien und fundamentale Grenzen für den Trade-off zwischen Genauigkeit und Kosten bei der Stichprobenziehung zu identifizieren.

Noah Golowich, Fan Chen, Dhruv Rohatgi, Raghav Singhal, Carles Domingo-Enrich, Dylan J. Foster, Akshay KrishnamurthyTue, 10 Ma🤖 cs.LG

Robust Transfer Learning with Side Information

Dieser Beitrag stellt ein Transfer-Learning-Framework vor, das durch die Integration von Seiteninformationen wie Momentenbeschränkungen und Dichteverhältnissen in schätz-zentrierte Unsicherheitsmengen robuste, weniger konservative Strategien für Markov-Entscheidungsprozesse unter Umgebungsverschiebungen ermöglicht und dabei die Sample-Effizienz sowie die Ziel-Domain-Leistung im Vergleich zu bestehenden Methoden verbessert.

Akram S. Awad, Shihab Ahmed, Yue Wang, George K. AtiaTue, 10 Ma🤖 cs.LG

Amortizing Maximum Inner Product Search with Learned Support Functions

Die Autoren stellen einen lernbasierten Ansatz namens „amortized MIPS" vor, der neuronale Netze (SupportNet und KeyNet) nutzt, um die Maximum Inner Product Search durch die Approximation der konvexen Support-Funktion zu beschleunigen und dabei die optimalen Schlüsselvektoren entweder über Gradientenberechnung oder direkte Regression vorherzusagen.

Theo X. Olausson, João Monteiro, Michal Klein, Marco CuturiTue, 10 Ma🤖 cs.LG

Explainable Condition Monitoring via Probabilistic Anomaly Detection Applied to Helicopter Transmissions

Diese Arbeit stellt eine neuartige, erklärbare Methode zur Zustandsüberwachung vor, die ausschließlich auf gesunden Daten basiert, um mittels probabilistischer Anomalieerkennung und Unsicherheitsquantifizierung Fehler in Hubschraubergetrieben frühzeitig zu erkennen und zu interpretieren.

Aurelio Raffa Ugolini, Jessica Leoni, Valentina Breschi, Damiano Paniccia, Francesco Aldo Tucci, Luigi Capone, Mara TanelliTue, 10 Ma🤖 cs.LG

Are We Winning the Wrong Game? Revisiting Evaluation Practices for Long-Term Time Series Forecasting

Dieses Papier kritisiert die aktuelle, rein metrikzentrierte Evaluierung von Langzeitzeitreihenvorhersagen als strukturell fehlgeleitet und fordert einen multidimensionalen Ansatz, der statistische Treue, strukturelle Kohärenz und Entscheidungsrelevanz integriert, um den Fokus von bloßen Benchmark-Rankings auf sinnvolle, kontextbewusste Fortschritte zu lenken.

Thanapol Phungtua-eng, Yoshitaka YamamotoTue, 10 Ma🤖 cs.LG