FinTexTS: Financial Text-Paired Time-Series Dataset via Semantic-Based and Multi-Level Pairing

Dit paper introduceert FinTexTS, een nieuw groot dataset voor gepaarde financiële tekst en tijdreeksen dat gebruikmaakt van een semantisch en meer-niveau koppelingsframework om complexe marktinteracties beter vast te leggen dan bestaande methoden op basis van trefwoorden, wat leidt tot verbeterde voorspellingen van aandelenprijzen.

Jaehoon Lee, Suhwan Park, Tae Yoon Lim, Seunghan Lee, Jun Seo, Dongwan Kang, Hwanil Choi, Minjae Kim, Sungdong Yoo, SoonYoung Lee, Yongjae Lee, Wonbin AhnWed, 11 Ma🤖 cs.AI

Unveiling the Potential of Quantization with MXFP4: Strategies for Quantization Error Reduction

Dit paper introduceert twee software-only technieken, Overflow-Aware Scaling en Macro Block Scaling, die de nauwkeurigheidskloof tussen het MXFP4- en NVFP4-quantisatieformaat voor grote taalmodellen van ongeveer 10% tot minder dan 1% verkleinen zonder hardware-aanpassingen.

Jatin Chhugani, Geonhwa Jeong, Bor-Yiing Su, Yunjie Pan, Hanmei Yang, Aayush Ankit, Jiecao Yu, Summer Deng, Yunqing Chen, Nadathur Satish, Changkyu KimWed, 11 Ma🤖 cs.AI

SiliconMind-V1: Multi-Agent Distillation and Debug-Reasoning Workflows for Verilog Code Generation

Het artikel introduceert SiliconMind-V1, een lokaal fijngefineerd multi-agent framework dat door middel van testgedreven verificatie en iteratief debuggen functioneel correcte Verilog-code genereert en hiermee de huidige state-of-the-art prestaties verbetert.

Mu-Chi Chen, Yu-Hung Kao, Po-Hsuan Huang, Shao-Chun Ho, Hsiang-Yu Tsou, I-Ting Wu, En-Ming Huang, Yu-Kai Hung, Wei-Po Hsin, Cheng Liang, Chia-Heng Tu, Shih-Hao Hung, Hsiang-Tsung KungWed, 11 Ma🤖 cs.AI

ARKV: Adaptive and Resource-Efficient KV Cache Management under Limited Memory Budget for Long-Context Inference in LLMs

Dit paper introduceert ARKV, een lichtgewicht en adaptief framework dat de geheugenefficiëntie van Large Language Models bij lange contexten aanzienlijk verbetert door dynamisch precisieniveaus toe te wijzen aan tokens op basis van hun belang, waardoor het KV-cachegebruik met een factor 4 wordt gereduceerd zonder significante kwaliteitsverlies.

Jianlong Lei, Shashikant IlagerWed, 11 Ma🤖 cs.AI

Benchmarking Federated Learning in Edge Computing Environments: A Systematic Review and Performance Evaluation

Dit artikel presenteert een systematische review en prestatie-evaluatie van federatief leertechnieken in edge-computingomgevingen, waarbij vijf toonaangevende algoritmen worden vergeleken op basis van nauwkeurigheid, communicatie-efficiëntie en energieconsumptie om bestaande uitdagingen te identificeren en een onderzoeksagenda voor de toekomst te schetsen.

Sales Aribe Jr., Gil Nicholas CagandeWed, 11 Ma🤖 cs.AI

Sensitivity-Guided Framework for Pruned and Quantized Reservoir Computing Accelerators

Dit artikel presenteert een compressieframework voor Reservoir Computing dat gebruikmaakt van een op gevoeligheid gebaseerde prune-mechanisme om de afweging tussen kwantisatie, pruning en hardware-efficiëntie te optimaliseren, wat resulteert in aanzienlijke verbeteringen in resourcegebruik en energie-efficiëntie op FPGA's zonder merkbare nauwkeurigheidsverlies.

Atousa Jafari, Mahdi Taheri, Hassan Ghasemzadeh Mohammadi, Christian Herglotz, Marco PlatznerWed, 11 Ma🤖 cs.AI

Zipage: Maintain High Request Concurrency for LLM Reasoning through Compressed PagedAttention

Dit paper introduceert Zipage, een hoog-concurrentie LLM-inferentie-engine die Compressed PagedAttention combineert met geavanceerde scheduling en compressie om de geheugenbottleneck bij redenerende modellen op te lossen en zo een snelheidswinst van meer dan 2,1x te bereiken met behoud van 95% van de prestaties.

Mengqi Liao, Lu Wang, Chaoyun Zhang, Bo Qiao, Si Qin, Qingwei Lin, Saravan Rajmohan, Dongmei Zhang, Huaiyu WanWed, 11 Ma🤖 cs.AI