Continual uncertainty learning

Dit artikel introduceert een nieuw curriculum-gebaseerd framework voor continu leren dat door het sequentieel ontleden van meerdere onzekerheden en het combineren van modelgebaseerde regeling met diepe versterkingsturing, robuuste besturing van niet-lineaire mechanische systemen mogelijk maakt met succesvolle simulatie-naar-realiteit-overdracht, zoals gedemonstreerd bij actieve trillingsregeling voor auto-aandrijflijnen.

Heisei Yonezawa, Ansei Yonezawa, Itsuro Kajiwara2026-03-11🤖 cs.AI

OrthoAI: A Neurosymbolic Framework for Evidence-Grounded Biomechanical Reasoning in Clear Aligner Orthodontics

Het artikel introduceert OrthoAI, een neurosymbolisch raamwerk dat door middel van segmentatie met schaarse supervisie, kennisgebaseerde constraint-inferentie en een multicriteria-evaluatiemodel de brug slaat tussen 3D-geometrische waarneming en klinisch biomechanisch redeneren voor de automatische ondersteuning van beslissingen bij orthodontie met transparante aligners.

Edouard Lansiaux, Margaux Leman, Mehdi Ammi2026-03-11🤖 cs.AI

Pri4R: Learning World Dynamics for Vision-Language-Action Models with Privileged 4D Representation

Pri4R is een effectieve methode die Vision-Language-Action-modellen een impliciet begrip van werelddynamiek bijbrengt door tijdens het trainen gebruik te maken van bevoorrechte 4D-informatie via een lichtgewicht punt-track-head, wat leidt tot aanzienlijk betere prestaties in complexe manipulatietaken zonder extra rekenlast tijdens het gebruik.

Jisoo Kim, Jungbin Cho, Sanghyeok Chu, Ananya Bal, Jinhyung Kim, Gunhee Lee, Sihaeng Lee, Seung Hwan Kim, Bohyung Han, Hyunmin Lee, Laszlo A. Jeni, Seungryong Kim2026-03-11🤖 cs.AI

Reasoning as Gradient: Scaling MLE Agents Beyond Tree Search

Dit paper introduceert \textsc{Gome}, een MLE-agent die gradiëntgebaseerde optimalisatie toepast in plaats van boomzoektechnieken, wat leidt tot state-of-the-art prestaties op MLE-Bench en aantoont dat deze aanpak bij sterkere redeneermodellen steeds effectiever wordt dan traditionele exhaustieve zoekmethodes.

Yifei Zhang, Xu Yang, Xiao Yang, Bowen Xian, Qizheng Li, Shikai Fang, Jingyuan Li, Jian Wang, Mingrui Xu, Weiqing Liu, Jiang Bian2026-03-11🤖 cs.AI

FinTexTS: Financial Text-Paired Time-Series Dataset via Semantic-Based and Multi-Level Pairing

Dit paper introduceert FinTexTS, een nieuw groot dataset voor gepaarde financiële tekst en tijdreeksen dat gebruikmaakt van een semantisch en meer-niveau koppelingsframework om complexe marktinteracties beter vast te leggen dan bestaande methoden op basis van trefwoorden, wat leidt tot verbeterde voorspellingen van aandelenprijzen.

Jaehoon Lee, Suhwan Park, Tae Yoon Lim, Seunghan Lee, Jun Seo, Dongwan Kang, Hwanil Choi, Minjae Kim, Sungdong Yoo, SoonYoung Lee, Yongjae Lee, Wonbin Ahn2026-03-11🤖 cs.AI

Unveiling the Potential of Quantization with MXFP4: Strategies for Quantization Error Reduction

Dit paper introduceert twee software-only technieken, Overflow-Aware Scaling en Macro Block Scaling, die de nauwkeurigheidskloof tussen het MXFP4- en NVFP4-quantisatieformaat voor grote taalmodellen van ongeveer 10% tot minder dan 1% verkleinen zonder hardware-aanpassingen.

Jatin Chhugani, Geonhwa Jeong, Bor-Yiing Su, Yunjie Pan, Hanmei Yang, Aayush Ankit, Jiecao Yu, Summer Deng, Yunqing Chen, Nadathur Satish, Changkyu Kim2026-03-11🤖 cs.AI

SiliconMind-V1: Multi-Agent Distillation and Debug-Reasoning Workflows for Verilog Code Generation

Het artikel introduceert SiliconMind-V1, een lokaal fijngefineerd multi-agent framework dat door middel van testgedreven verificatie en iteratief debuggen functioneel correcte Verilog-code genereert en hiermee de huidige state-of-the-art prestaties verbetert.

Mu-Chi Chen, Yu-Hung Kao, Po-Hsuan Huang, Shao-Chun Ho, Hsiang-Yu Tsou, I-Ting Wu, En-Ming Huang, Yu-Kai Hung, Wei-Po Hsin, Cheng Liang, Chia-Heng Tu, Shih-Hao Hung, Hsiang-Tsung Kung2026-03-11🤖 cs.AI

ARKV: Adaptive and Resource-Efficient KV Cache Management under Limited Memory Budget for Long-Context Inference in LLMs

Dit paper introduceert ARKV, een lichtgewicht en adaptief framework dat de geheugenefficiëntie van Large Language Models bij lange contexten aanzienlijk verbetert door dynamisch precisieniveaus toe te wijzen aan tokens op basis van hun belang, waardoor het KV-cachegebruik met een factor 4 wordt gereduceerd zonder significante kwaliteitsverlies.

Jianlong Lei, Shashikant Ilager2026-03-11🤖 cs.AI