Comparative Analysis of Modern Machine Learning Models for Retail Sales Forecasting

Die Studie zeigt, dass bei der Prognose des Einzelhandelsumsatzes unter Bedingungen wie intermittierender Nachfrage und häufigen Produktwechseln lokale baumbasierte Ensemble-Methoden wie XGBoost komplexeren Deep-Learning-Architekturen überlegen sind und somit die Ausrichtung auf die Problemcharakteristika wichtiger ist als die architektonische Raffinesse.

Luka Hobor, Mario Brcic, Lidija Polutnik, Ante Kapetanovic2026-03-12🤖 cs.LG

Learning What Reinforcement Learning Can't: Interleaved Online Fine-Tuning for Hardest Questions

Die Arbeit stellt ReLIFT vor, eine neuartige Trainingsmethode, die Reinforcement Learning mit Online-Supervised Fine-Tuning kombiniert, um die Grenzen von RL zu überwinden und Large Language Models durch das Erlernen neuer Fähigkeiten und Wissensbestände bei komplexen Fragen signifikant zu verbessern.

Lu Ma, Hao Liang, Meiyi Qiang, Lexiang Tang, Xiaochen Ma, Zhen Hao Wong, Junbo Niu, Chengyu Shen, Runming He, Yanhao Li, Bin Cui, Wentao Zhang2026-03-12🤖 cs.AI

Sequential-Parallel Duality in Prefix Scannable Models

Diese Arbeit definiert die Klasse der „Prefix-Scannable Models" (PSMs), die durch eine Verallgemeinerung des Parallel-Prefix-Scan-Algorithmus auf nicht-assoziative Operatoren (wie Softmax) eine einheitliche Architektur für effiziente parallele Trainings- und sequenzielle Inferenzprozesse bietet und dabei die Ausdruckskraft von Transformern mit der Recheneffizienz von State-Space-Modellen vereint.

Morris Yau, Sharut Gupta, Valerie Engelmayer, Kazuki Irie, Stefanie Jegelka, Jacob Andreas2026-03-12🤖 cs.LG

The Yokai Learning Environment: Tracking Beliefs Over Space and Time

Die Autoren stellen das Yokai Learning Environment (YLE) als neue Benchmark für die Null-Shot-Koordination vor, die durch das Verfolgen von Überzeugungen über bewegliche Karten und das Schließen unter mehrdeutigen Hinweisen bestehende Methoden herausfordert und zeigt, dass auf dem bisherigen Standardbenchmark Hanabi erzielte Fortschritte nicht unbedingt auf komplexere Szenarien verallgemeinern.

Constantin Ruhdorfer, Matteo Bortoletto, Johannes Forkel, Jakob Foerster, Andreas Bulling2026-03-12🤖 cs.AI

Universal Dynamics with Globally Controlled Analog Quantum Simulators

Diese Arbeit beweist, dass analoge Quantensimulatoren mit globaler Kontrolle universell sind, entwickelt einen direkten optimalen Kontrollrahmen zur Überwindung experimenteller Einschränkungen und demonstriert experimentell die Realisierung komplexer Vielteilchenwechselwirkungen und topologischer Dynamik auf Rydberg-Atom-Arrays.

Hong-Ye Hu, Abigail McClain Gomez, Liyuan Chen, Aaron Trowbridge, Andy J. Goldschmidt, Zachary Manchester, Frederic T. Chong, Arthur Jaffe, Susanne F. Yelin2026-03-12⚛️ quant-ph

Zero-Shot Transferable Solution Method for Parametric Optimal Control Problems

Diese Arbeit stellt eine übertragbare Lösungsmethode für parametrische optimale Steuerungsprobleme vor, die durch den Einsatz von Funktionencodierern und einem Offline-Online-Deekompositionsansatz eine effiziente Zero-Shot-Anpassung an sich ändernde Zielsetzungen ermöglicht und dabei nahe-optimalen Performance bei minimalem Rechenaufwand für den Echtzeiteinsatz bietet.

Xingjian Li, Kelvin Kan, Deepanshu Verma, Krishna Kumar, Stanley Osher, Ján Drgona2026-03-12🤖 cs.LG

Global Minimizers of Sigmoid Contrastive Loss

Diese Arbeit erklärt theoretisch die Vorteile der Synchronisierung von trainierbarer inverser Temperatur und Bias im Sigmoid-Verlust (wie bei SigLIP), indem sie neue kombinatorische Objekte namens (m,brel)(\mathsf{m}, \mathsf{b}_{\mathsf{rel}})-Konstellationen einführt, um den Erfolg des Modells, die Modality Gap und die erforderliche Dimension für hochwertige Repräsentationen zu analysieren.

Kiril Bangachev, Guy Bresler, Iliyas Noman, Yury Polyanskiy2026-03-12🤖 cs.LG

One-Prompt Strikes Back: Sparse Mixture of Experts for Prompt-based Continual Learning

Die Arbeit stellt SMoPE vor, ein neuartiges Framework für das kontinuierliche Lernen, das durch die Kombination von Prompt-basierten Methoden mit einer spärlichen Mixture-of-Experts-Architektur die Effizienz von geteilten Prompts mit der Leistungsfähigkeit aufgaben-spezifischer Prompts vereint und dabei Interferenz minimiert sowie Speicher- und Rechenkosten erheblich senkt.

Minh Le, Bao-Ngoc Dao, Huy Nguyen, Quyen Tran, Anh Nguyen, Nhat Ho2026-03-12🤖 cs.LG

RADAR: Reasoning-Ability and Difficulty-Aware Routing for Reasoning LLMs

Die Arbeit stellt RADAR vor, ein leichtgewichtiges und interpretierbares Routing-Framework, das auf psychometrischen Prinzipien basiert, um Anfragen basierend auf ihrer Schwierigkeit und den Fähigkeiten von Modell-Budget-Kombinationen intelligent auf verschiedene Reasoning-LLMs zu verteilen und so die Leistung bei gleichzeitiger Kosteneffizienz zu optimieren.

Nigel Fernandez, Branislav Kveton, Ryan A. Rossi, Andrew S. Lan, Zichao Wang2026-03-12🤖 cs.AI

A Systematic Evaluation of Self-Supervised Learning for Label-Efficient Sleep Staging with Wearable EEG

Diese Arbeit stellt die erste systematische Evaluierung selbstüberwachter Lernverfahren für die label-effiziente Schlafstadienklassifizierung mit tragbaren EEG-Geräten vor und zeigt, dass ein domainspezifischer Ansatz die Leistung gegenüber rein überwachten Baselines und allgemeinen EEG-Grundmodellen signifikant verbessert, insbesondere bei knappen annotierten Daten.

Emilio Estevan, María Sierra-Torralba, Eduardo López-Larraz, Luis Montesano2026-03-12🤖 cs.AI