Enhancing Reconstruction Capability of Wavelet Transform Amorphous Radial Distribution Function via Machine Learning Assisted Parameter Tuning

Deze studie introduceert het verbeterde WT-RDF+-framework, dat door middel van machine learning de parameters van de Wavelet Transform Radiale Distributiefunctie optimaliseert om de reconstructieprecisie van atomaire structuren in amorfe Ge-Se en Ag-Ge-Se materialen te verhogen en zo de beperkingen van eerdere methoden en conventionele ML-modellen te overtreffen.

Deriyan Senjaya, Stephen Ekaputra LimantoroWed, 11 Ma🔬 cond-mat.mtrl-sci

Bottleneck Transformer-Based Approach for Improved Automatic STOI Score Prediction

Dit paper presenteert een nieuwe bottleneck-transformer-architectuur die frame-niveaueigenschappen leert en informatie aggregeert via multi-head self-attention om de Short-Time Objective Intelligibility (STOI) score nauwkeuriger te voorspellen dan bestaande zelftoezicht-gebaseerde methoden, zonder dat een schoon referentiesignaal nodig is.

Amartyaveer, Murali Kadambi, Chandra Mohan Sharma, Anupam Mondal, Prasanta Kumar GhoshWed, 11 Ma🤖 cs.LG

Continual uncertainty learning

Dit artikel introduceert een nieuw curriculum-gebaseerd framework voor continu leren dat door het sequentieel ontleden van meerdere onzekerheden en het combineren van modelgebaseerde regeling met diepe versterkingsturing, robuuste besturing van niet-lineaire mechanische systemen mogelijk maakt met succesvolle simulatie-naar-realiteit-overdracht, zoals gedemonstreerd bij actieve trillingsregeling voor auto-aandrijflijnen.

Heisei Yonezawa, Ansei Yonezawa, Itsuro KajiwaraWed, 11 Ma🤖 cs.AI

Detecting Transportation Mode Using Dense Smartphone GPS Trajectories and Transformer Models

In dit onderzoek wordt SpeedTransformer, een nieuw Transformer-model dat uitsluitend op snelheidsgegevens van dichte smartphone-GPS-trajecten vertrouwt, voorgesteld als een superieur en flexibel alternatief voor traditionele deep learning-modellen voor het detecteren van vervoersmodi, zelfs in complexe omgevingen en bij gebrek aan grote datasets.

Yuandong Zhang, Othmane Echchabi, Tianshu Feng, Wenyi Zhang, Hsuai-Kai Liao, Charles ChangWed, 11 Ma🤖 cs.LG

Reasoning as Gradient: Scaling MLE Agents Beyond Tree Search

Dit paper introduceert \textsc{Gome}, een MLE-agent die gradiëntgebaseerde optimalisatie toepast in plaats van boomzoektechnieken, wat leidt tot state-of-the-art prestaties op MLE-Bench en aantoont dat deze aanpak bij sterkere redeneermodellen steeds effectiever wordt dan traditionele exhaustieve zoekmethodes.

Yifei Zhang, Xu Yang, Xiao Yang, Bowen Xian, Qizheng Li, Shikai Fang, Jingyuan Li, Jian Wang, Mingrui Xu, Weiqing Liu, Jiang BianWed, 11 Ma🤖 cs.AI

FinTexTS: Financial Text-Paired Time-Series Dataset via Semantic-Based and Multi-Level Pairing

Dit paper introduceert FinTexTS, een nieuw groot dataset voor gepaarde financiële tekst en tijdreeksen dat gebruikmaakt van een semantisch en meer-niveau koppelingsframework om complexe marktinteracties beter vast te leggen dan bestaande methoden op basis van trefwoorden, wat leidt tot verbeterde voorspellingen van aandelenprijzen.

Jaehoon Lee, Suhwan Park, Tae Yoon Lim, Seunghan Lee, Jun Seo, Dongwan Kang, Hwanil Choi, Minjae Kim, Sungdong Yoo, SoonYoung Lee, Yongjae Lee, Wonbin AhnWed, 11 Ma🤖 cs.AI

Unveiling the Potential of Quantization with MXFP4: Strategies for Quantization Error Reduction

Dit paper introduceert twee software-only technieken, Overflow-Aware Scaling en Macro Block Scaling, die de nauwkeurigheidskloof tussen het MXFP4- en NVFP4-quantisatieformaat voor grote taalmodellen van ongeveer 10% tot minder dan 1% verkleinen zonder hardware-aanpassingen.

Jatin Chhugani, Geonhwa Jeong, Bor-Yiing Su, Yunjie Pan, Hanmei Yang, Aayush Ankit, Jiecao Yu, Summer Deng, Yunqing Chen, Nadathur Satish, Changkyu KimWed, 11 Ma🤖 cs.AI