Boltzmann-based Exploration for Robust Decentralized Multi-Agent Planning (Extended Version)

Cet article présente le CB-MCTS, une méthode de recherche arborescente Monte Carlo décentralisée qui remplace la politique UCT déterministe par une politique stochastique de Boltzmann avec un bonus d'entropie décroissant, permettant ainsi une exploration plus robuste et performante dans des environnements multi-agents à récompenses clairsemées ou trompeuses.

Nhat D. A. Nguyen, Duong D. Nguyen, Gianluca Rizzo, Hung X. NguyenWed, 11 Ma🤖 cs.AI

FinTexTS: Financial Text-Paired Time-Series Dataset via Semantic-Based and Multi-Level Pairing

Ce papier présente FinTexTS, un nouveau jeu de données à grande échelle associant des séries temporelles financières à des textes, construit grâce à un cadre d'appariement sémantique et multi-niveaux qui capture les interdépendances complexes du marché et améliore la prévision des cours boursiers.

Jaehoon Lee, Suhwan Park, Tae Yoon Lim, Seunghan Lee, Jun Seo, Dongwan Kang, Hwanil Choi, Minjae Kim, Sungdong Yoo, SoonYoung Lee, Yongjae Lee, Wonbin AhnWed, 11 Ma🤖 cs.AI

Unveiling the Potential of Quantization with MXFP4: Strategies for Quantization Error Reduction

Ce papier propose deux techniques logicielles, l'échelle consciente des débordements (OAS) et l'échelle de bloc macro (MBS), qui réduisent considérablement l'écart de précision entre le format MXFP4 et NVFP4 pour les grands modèles de langage, rendant ainsi MXFP4 une alternative pratique et économe en matériel sans nécessiter de modifications matérielles.

Jatin Chhugani, Geonhwa Jeong, Bor-Yiing Su, Yunjie Pan, Hanmei Yang, Aayush Ankit, Jiecao Yu, Summer Deng, Yunqing Chen, Nadathur Satish, Changkyu KimWed, 11 Ma🤖 cs.AI

CktEvo: Repository-Level RTL Code Benchmark for Design Evolution

Ce papier présente CktEvo, un benchmark et un cadre de référence pour l'évolution de code RTL au niveau d'un dépôt complet, permettant aux modèles de langage d'optimiser automatiquement la puissance, les performances et la surface (PPA) tout en préservant le comportement fonctionnel grâce à une boucle de rétroaction avec la chaîne d'outils.

Zhengyuan Shi, Jingxin Wang, Tairan Cheng, Changran Xu, Weikang Qian, Qiang XuWed, 11 Ma🤖 cs.AI

SiliconMind-V1: Multi-Agent Distillation and Debug-Reasoning Workflows for Verilog Code Generation

L'article présente SiliconMind-V1, un cadre multi-agents qui génère des données d'entraînement axées sur le raisonnement et intègre une vérification par banc d'essai pour permettre à des modèles de langage localement affinés de générer, tester et déboguer itérativement du code Verilog, surpassant ainsi les méthodes actuelles en matière de correction fonctionnelle avec moins de ressources.

Mu-Chi Chen, Yu-Hung Kao, Po-Hsuan Huang, Shao-Chun Ho, Hsiang-Yu Tsou, I-Ting Wu, En-Ming Huang, Yu-Kai Hung, Wei-Po Hsin, Cheng Liang, Chia-Heng Tu, Shih-Hao Hung, Hsiang-Tsung KungWed, 11 Ma🤖 cs.AI

Alignment Is the Disease: Censorship Visibility and Alignment Constraint Complexity as Determinants of Collective Pathology in Multi-Agent LLM Systems

Cette étude préliminaire suggère que les techniques d'alignement des modèles de langage, en particulier lorsqu'elles impliquent une censure invisible ou des contraintes complexes, peuvent paradoxalement générer des pathologies collectives et des dissociations entre la compréhension et l'action au sein de systèmes multi-agents, révélant ainsi un risque de préjudice iatrogène inhérent aux interventions de sécurité actuelles.

Hiroki FukuiWed, 11 Ma🤖 cs.AI

PhD Thesis Summary: Methods for Reliability Assessment and Enhancement of Deep Neural Network Hardware Accelerators

Cette thèse de doctorat présente des méthodes novatrices et économiques pour évaluer et améliorer la fiabilité des accélérateurs matériels de réseaux de neurones profonds, notamment par le développement d'outils d'analyse, l'optimisation des compromis entre efficacité et tolérance aux pannes, et la création de la technique AdAM pour une amélioration de la fiabilité en temps réel sans surcoût matériel.

Mahdi TaheriWed, 11 Ma🤖 cs.AI

ARKV: Adaptive and Resource-Efficient KV Cache Management under Limited Memory Budget for Long-Context Inference in LLMs

Ce papier présente ARKV, un cadre adaptatif et léger qui optimise la gestion du cache KV pour l'inférence de grands modèles de langage à contexte long en allouant dynamiquement des niveaux de précision aux tokens, permettant ainsi de réduire l'utilisation de la mémoire GPU par un facteur quatre tout en préservant la précision du modèle sans nécessiter de réentraînement.

Jianlong Lei, Shashikant IlagerWed, 11 Ma🤖 cs.AI

Measurement-Free Ancilla Recycling via Blind Reset: A Cross-Platform Study on Superconducting and Trapped-Ion Processors

Cette étude comparative sur les processeurs supraconducteurs et à ions piégés démontre que le recyclage aveugle des ancillas permet de réduire considérablement la latence des cycles de correction d'erreurs tout en maintenant une propreté suffisante pour des codes de répétition, offrant ainsi des directives de déploiement spécifiques à chaque architecture.

Sangkeum LeeWed, 11 Ma⚛️ quant-ph

Sensitivity-Guided Framework for Pruned and Quantized Reservoir Computing Accelerators

Cet article présente un cadre de compression pour le calcul en réservoir qui utilise un mécanisme d'élagage basé sur la sensibilité pour optimiser les compromis entre précision, efficacité matérielle et consommation de ressources dans les implémentations FPGA, tout en maintenant des performances élevées sur diverses tâches de séries temporelles.

Atousa Jafari, Mahdi Taheri, Hassan Ghasemzadeh Mohammadi, Christian Herglotz, Marco PlatznerWed, 11 Ma🤖 cs.AI

Zipage: Maintain High Request Concurrency for LLM Reasoning through Compressed PagedAttention

Ce papier présente Zipage, un moteur d'inférence LLM qui utilise la méthode Compressed PagedAttention pour maintenir une forte concurrence de requêtes lors du raisonnement tout en préservant 95 % des performances et en offrant un gain de vitesse de plus de 2,1 fois par rapport aux moteurs à cache KV complet.

Mengqi Liao, Lu Wang, Chaoyun Zhang, Bo Qiao, Si Qin, Qingwei Lin, Saravan Rajmohan, Dongmei Zhang, Huaiyu WanWed, 11 Ma🤖 cs.AI