Continual uncertainty learning

Dit artikel introduceert een nieuw curriculum-gebaseerd framework voor continu leren dat door het sequentieel ontleden van meerdere onzekerheden en het combineren van modelgebaseerde regeling met diepe versterkingsturing, robuuste besturing van niet-lineaire mechanische systemen mogelijk maakt met succesvolle simulatie-naar-realiteit-overdracht, zoals gedemonstreerd bij actieve trillingsregeling voor auto-aandrijflijnen.

Heisei Yonezawa, Ansei Yonezawa, Itsuro Kajiwara2026-03-11🤖 cs.AI

Detecting Transportation Mode Using Dense Smartphone GPS Trajectories and Transformer Models

In dit onderzoek wordt SpeedTransformer, een nieuw Transformer-model dat uitsluitend op snelheidsgegevens van dichte smartphone-GPS-trajecten vertrouwt, voorgesteld als een superieur en flexibel alternatief voor traditionele deep learning-modellen voor het detecteren van vervoersmodi, zelfs in complexe omgevingen en bij gebrek aan grote datasets.

Yuandong Zhang, Othmane Echchabi, Tianshu Feng, Wenyi Zhang, Hsuai-Kai Liao, Charles Chang2026-03-11🤖 cs.LG

Reasoning as Gradient: Scaling MLE Agents Beyond Tree Search

Dit paper introduceert \textsc{Gome}, een MLE-agent die gradiëntgebaseerde optimalisatie toepast in plaats van boomzoektechnieken, wat leidt tot state-of-the-art prestaties op MLE-Bench en aantoont dat deze aanpak bij sterkere redeneermodellen steeds effectiever wordt dan traditionele exhaustieve zoekmethodes.

Yifei Zhang, Xu Yang, Xiao Yang, Bowen Xian, Qizheng Li, Shikai Fang, Jingyuan Li, Jian Wang, Mingrui Xu, Weiqing Liu, Jiang Bian2026-03-11🤖 cs.AI

FinTexTS: Financial Text-Paired Time-Series Dataset via Semantic-Based and Multi-Level Pairing

Dit paper introduceert FinTexTS, een nieuw groot dataset voor gepaarde financiële tekst en tijdreeksen dat gebruikmaakt van een semantisch en meer-niveau koppelingsframework om complexe marktinteracties beter vast te leggen dan bestaande methoden op basis van trefwoorden, wat leidt tot verbeterde voorspellingen van aandelenprijzen.

Jaehoon Lee, Suhwan Park, Tae Yoon Lim, Seunghan Lee, Jun Seo, Dongwan Kang, Hwanil Choi, Minjae Kim, Sungdong Yoo, SoonYoung Lee, Yongjae Lee, Wonbin Ahn2026-03-11🤖 cs.AI

Unveiling the Potential of Quantization with MXFP4: Strategies for Quantization Error Reduction

Dit paper introduceert twee software-only technieken, Overflow-Aware Scaling en Macro Block Scaling, die de nauwkeurigheidskloof tussen het MXFP4- en NVFP4-quantisatieformaat voor grote taalmodellen van ongeveer 10% tot minder dan 1% verkleinen zonder hardware-aanpassingen.

Jatin Chhugani, Geonhwa Jeong, Bor-Yiing Su, Yunjie Pan, Hanmei Yang, Aayush Ankit, Jiecao Yu, Summer Deng, Yunqing Chen, Nadathur Satish, Changkyu Kim2026-03-11🤖 cs.AI

KernelCraft: Benchmarking for Agentic Close-to-Metal Kernel Generation on Emerging Hardware

Dit paper introduceert KernelCraft, het eerste benchmarkkader dat aantoont dat agentische LLM-systemen via een feedback-gedreven workflow effectief lage-niveau kernels kunnen genereren en optimaliseren voor nieuwe hardware-architecturen, waardoor de ontwikkelingstijd en -kosten voor dergelijke accelerators aanzienlijk worden verlaagd.

Jiayi Nie, Haoran Wu, Yao Lai, Zeyu Cao, Cheng Zhang, Binglei Lou, Erwei Wang, Jianyi Cheng, Timothy M. Jones, Robert Mullins, Rika Antonova, Yiren Zhao2026-03-11🤖 cs.LG

Sensitivity-Guided Framework for Pruned and Quantized Reservoir Computing Accelerators

Dit artikel presenteert een compressieframework voor Reservoir Computing dat gebruikmaakt van een op gevoeligheid gebaseerde prune-mechanisme om de afweging tussen kwantisatie, pruning en hardware-efficiëntie te optimaliseren, wat resulteert in aanzienlijke verbeteringen in resourcegebruik en energie-efficiëntie op FPGA's zonder merkbare nauwkeurigheidsverlies.

Atousa Jafari, Mahdi Taheri, Hassan Ghasemzadeh Mohammadi, Christian Herglotz, Marco Platzner2026-03-11🤖 cs.AI

The AetherFloat Family: Block-Scale-Free Quad-Radix Floating-Point Architectures for AI Accelerators

Het paper introduceert de AetherFloat-familie, een nieuw kwadratisch radix-4 floating-point architectuurontwerp dat door het elimineren van blokschaallogica en het gebruik van expliciete mantissen aanzienlijke verbeteringen in chipoppervlak, energieverbruik en latentie biedt voor AI-versnellers, met name in de vorm van het AF8-formaat dat dynamische schaling overbodig maakt ten koste van kwantiseringsbewust finetunen.

Keita Morisaki2026-03-11🤖 cs.LG