Opponent State Inference Under Partial Observability: An HMM-POMDP Framework for 2026 Formula 1 Energy Strategy

Diese Arbeit stellt ein zweistufiges HMM-POMDP-Rahmenwerk vor, das die Energiestrategie für die Formel-1-Saison 2026 optimiert, indem es mittels eines Hidden-Markov-Modells den verborgenen Zustand von Gegnern aus Telemetriedaten ableitet und eine Deep-Q-Network-Politik zur Vermeidung von Täuschungsmanövern wie dem „Counter-Harvest Trap" steuert.

Kalliopi Kleisarchaki2026-03-10🤖 cs.LG

HarmonyCell: Automating Single-Cell Perturbation Modeling under Semantic and Distribution Shifts

HarmonyCell ist ein end-to-end Agenten-Framework, das durch eine LLM-gesteuerte semantische Vereinheitlichung und einen adaptiven Monte-Carlo-Baumsuch-Algorithmus die Modellierung von Einzelzell-Perturbationen unter semantischen und distributionellen Verschiebungen automatisiert und dabei sowohl die Ausführungsfähigkeit als auch die Leistung gegenüber Experten-basierten Baselines signifikant verbessert.

Wenxuan Huang, Mingyu Tsoi, Yanhao Huang, Xinjie Mao, Xue Xia, Hao Wu, Jiaqi Wei, Yuejin Yang, Lang Yu, Cheng Tan, Xiang Zhang, Zhangyang Gao, Siqi Sun2026-03-10💻 cs

A Detection-Gated Pipeline for Robust Glottal Area Waveform Extraction and Clinical Pathology Assessment

Die vorgestellte Arbeit stellt eine rechen-effiziente, detektionsgesteuerte Pipeline vor, die durch die Kombination eines Lokalisators und eines Segmentierers robuste Glottalflächen-Wellenformen aus Hochgeschwindigkeits-Videoendoskopien extrahiert, um zuverlässige klinische Biomarker für die pathologische Stimmbewertung über verschiedene Datensätze hinweg zu ermöglichen.

Harikrishnan Unnikrishnan2026-03-10🤖 cs.LG

Why Adam Can Beat SGD: Second-Moment Normalization Yields Sharper Tails

Diese Arbeit liefert den ersten theoretischen Beweis, dass Adam im Vergleich zu SGD unter der klassischen Annahme beschränkter Varianz durch eine zweite Momenten-Normalisierung eine überlegene Konvergenz mit einer δ1/2\delta^{-1/2}-Abhängigkeit vom Konfidenzparameter δ\delta erreicht, während SGD mindestens eine δ1\delta^{-1}-Abhängigkeit aufweist.

Ruinan Jin, Yingbin Liang, Shaofeng Zou2026-03-10🤖 cs.LG

No Memorization, No Detection: Output Distribution-Based Contamination Detection in Small Language Models

Die Studie zeigt, dass die Methode CDD zur Erkennung von Datenkontamination in kleinen Sprachmodellen (70M–410M Parameter) in den meisten getesteten Szenarien nur zufällige Ergebnisse liefert und dabei von etablierten Wahrscheinlichkeitsmethoden wie Perplexity und Min-k% Prob übertroffen wird, da ihre Wirksamkeit kritisch von der Entstehung wortwörtlicher Memorierung abhängt.

Omer Sela (Tel Aviv University)2026-03-10💬 cs.CL

ARC-AGI-2 Technical Report

Dieser technische Bericht stellt ein transformerbasiertes System vor, das durch die Kombination von Sequenzmodellierung, gruppenbasierten Augmentierungen, Testzeit-Training mit LoRA und symmetriebewusstem Decodieren die Leistung beim ARC-AGI-2-Problem signifikant verbessert und sich menschlicher Generalisierung annähert.

Wallyson Lemes de Oliveira, Mekhron Bobokhonov, Matteo Caorsi, Aldo Podestà, Gabriele Beltramo, Luca Crosato, Matteo Bonotto, Federica Cecchetto, Hadrien Espic, Dan Titus Salajan, Stefan Taga, Luca Pana, Joe Carthy2026-03-10💬 cs.CL

A Coin Flip for Safety: LLM Judges Fail to Reliably Measure Adversarial Robustness

Die Studie zeigt, dass LLM-basierte Richter bei der Bewertung der adversären Robustheit von KI-Modellen aufgrund von Verteilungsverschiebungen oft nur zufällige Ergebnisse liefern und viele Angriffe deren Schwächen ausnutzen, weshalb die Autoren mit ReliableBench und JudgeStressTest neue, zuverlässigere Evaluierungsstandards vorschlagen.

Leo Schwinn, Moritz Ladenburger, Tim Beyer, Mehrnaz Mofakhami, Gauthier Gidel, Stephan Günnemann2026-03-10💬 cs.CL

Distributionally Robust Geometric Joint Chance-Constrained Optimization: Neurodynamic Approaches

Diese Arbeit stellt einen neurodynamischen Duplex-Ansatz auf zwei Zeitskalen vor, der mithilfe von Projektionsgleichungen und neuronalen Netzen verteilungsrobuste geometrische gemeinsame Chance-Nebenbedingungs-Optimierungsprobleme mit unbekannten Verteilungen löst und dabei in Wahrscheinlichkeit zum globalen Optimum konvergiert.

Ange Valli (L2S), Siham Tassouli (OPTIM), Abdel Lisser (L2S)2026-03-10🔢 math