Continual uncertainty learning

Cette étude propose un cadre d'apprentissage continu basé sur un curriculum pour le contrôle robuste de systèmes dynamiques non linéaires soumis à de multiples incertitudes, en décomposant le problème en tâches séquentielles et en intégrant un contrôleur modèle pour accélérer la convergence et garantir un transfert réussi de la simulation à la réalité, comme démontré par une application industrielle sur le contrôle des vibrations des chaînes cinématiques automobiles.

Heisei Yonezawa, Ansei Yonezawa, Itsuro Kajiwara2026-03-11🤖 cs.AI

ReDON: Recurrent Diffractive Optical Neural Processor with Reconfigurable Self-Modulated Nonlinearity

Ce papier présente ReDON, une nouvelle architecture de processeur optique neuronal récurrent qui surpasse les réseaux de neurones optiques diffractifs traditionnels en intégrant une non-linéarité auto-modulée reconfigurable, permettant d'améliorer significativement la précision des tâches de vision par ordinateur avec une consommation d'énergie négligeable.

Ziang Yin, Qi Jing, Raktim Sarma, Rena Huang, Yu Yao, Jiaqi Gu2026-03-11🔬 physics.optics

Breaking the Factorization Barrier in Diffusion Language Models

Ce papier présente Coupled Discrete Diffusion (CoDD), un cadre hybride qui surmonte la barrière de factorisation des modèles de diffusion linguistiques en remplaçant les sorties totalement factorisées par une couche d'inférence probabiliste légère, permettant ainsi de modéliser des dépendances conjointes complexes et d'obtenir des performances de raisonnement élevées avec une latence réduite et un coût d'entraînement minimal.

Ian Li, Zilei Shao, Benjie Wang, Rose Yu, Guy Van den Broeck, Anji Liu2026-03-11🤖 cs.AI

Zero-Shot and Supervised Bird Image Segmentation Using Foundation Models: A Dual-Pipeline Approach with Grounding DINO~1.5, YOLOv11, and SAM~2.1

Cet article présente une approche à double pipeline utilisant des modèles de fondation (Grounding DINO 1.5, YOLOv11 et SAM 2.1) pour la segmentation d'images d'oiseaux, démontrant qu'un mode supervisé fine-tuné atteint des performances record (IoU 0,912) et qu'un mode zero-shot fonctionne efficacement sans données étiquetées, surpassant ainsi les réseaux de segmentation traditionnels.

Abhinav Munagala2026-03-11🤖 cs.AI

Pri4R: Learning World Dynamics for Vision-Language-Action Models with Privileged 4D Representation

Le papier présente Pri4R, une méthode simple et efficace qui améliore les modèles Vision-Language-Action en leur apprenant implicitement la dynamique du monde via l'entraînement sur des trajectoires de points 3D privilégiées, sans ajouter de surcoût computationnel ni modifier l'architecture lors de l'inférence.

Jisoo Kim, Jungbin Cho, Sanghyeok Chu, Ananya Bal, Jinhyung Kim, Gunhee Lee, Sihaeng Lee, Seung Hwan Kim, Bohyung Han, Hyunmin Lee, Laszlo A. Jeni, Seungryong Kim2026-03-11🤖 cs.AI

Reasoning as Gradient: Scaling MLE Agents Beyond Tree Search

Le papier présente Gome, un agent MLE qui remplace la recherche arborescente par une optimisation basée sur le gradient en traduisant le raisonnement diagnostique et la mémoire des erreurs en calcul de gradient et momentum, surpassant ainsi les méthodes traditionnelles sur les modèles de pointe avec une efficacité accrue.

Yifei Zhang, Xu Yang, Xiao Yang, Bowen Xian, Qizheng Li, Shikai Fang, Jingyuan Li, Jian Wang, Mingrui Xu, Weiqing Liu, Jiang Bian2026-03-11🤖 cs.AI

Boltzmann-based Exploration for Robust Decentralized Multi-Agent Planning (Extended Version)

Cet article présente le CB-MCTS, une méthode de recherche arborescente Monte Carlo décentralisée qui remplace la politique UCT déterministe par une politique stochastique de Boltzmann avec un bonus d'entropie décroissant, permettant ainsi une exploration plus robuste et performante dans des environnements multi-agents à récompenses clairsemées ou trompeuses.

Nhat D. A. Nguyen, Duong D. Nguyen, Gianluca Rizzo, Hung X. Nguyen2026-03-11🤖 cs.AI

FinTexTS: Financial Text-Paired Time-Series Dataset via Semantic-Based and Multi-Level Pairing

Ce papier présente FinTexTS, un nouveau jeu de données à grande échelle associant des séries temporelles financières à des textes, construit grâce à un cadre d'appariement sémantique et multi-niveaux qui capture les interdépendances complexes du marché et améliore la prévision des cours boursiers.

Jaehoon Lee, Suhwan Park, Tae Yoon Lim, Seunghan Lee, Jun Seo, Dongwan Kang, Hwanil Choi, Minjae Kim, Sungdong Yoo, SoonYoung Lee, Yongjae Lee, Wonbin Ahn2026-03-11🤖 cs.AI

Unveiling the Potential of Quantization with MXFP4: Strategies for Quantization Error Reduction

Ce papier propose deux techniques logicielles, l'échelle consciente des débordements (OAS) et l'échelle de bloc macro (MBS), qui réduisent considérablement l'écart de précision entre le format MXFP4 et NVFP4 pour les grands modèles de langage, rendant ainsi MXFP4 une alternative pratique et économe en matériel sans nécessiter de modifications matérielles.

Jatin Chhugani, Geonhwa Jeong, Bor-Yiing Su, Yunjie Pan, Hanmei Yang, Aayush Ankit, Jiecao Yu, Summer Deng, Yunqing Chen, Nadathur Satish, Changkyu Kim2026-03-11🤖 cs.AI

CktEvo: Repository-Level RTL Code Benchmark for Design Evolution

Ce papier présente CktEvo, un benchmark et un cadre de référence pour l'évolution de code RTL au niveau d'un dépôt complet, permettant aux modèles de langage d'optimiser automatiquement la puissance, les performances et la surface (PPA) tout en préservant le comportement fonctionnel grâce à une boucle de rétroaction avec la chaîne d'outils.

Zhengyuan Shi, Jingxin Wang, Tairan Cheng, Changran Xu, Weikang Qian, Qiang Xu2026-03-11🤖 cs.AI

SiliconMind-V1: Multi-Agent Distillation and Debug-Reasoning Workflows for Verilog Code Generation

L'article présente SiliconMind-V1, un cadre multi-agents qui génère des données d'entraînement axées sur le raisonnement et intègre une vérification par banc d'essai pour permettre à des modèles de langage localement affinés de générer, tester et déboguer itérativement du code Verilog, surpassant ainsi les méthodes actuelles en matière de correction fonctionnelle avec moins de ressources.

Mu-Chi Chen, Yu-Hung Kao, Po-Hsuan Huang, Shao-Chun Ho, Hsiang-Yu Tsou, I-Ting Wu, En-Ming Huang, Yu-Kai Hung, Wei-Po Hsin, Cheng Liang, Chia-Heng Tu, Shih-Hao Hung, Hsiang-Tsung Kung2026-03-11🤖 cs.AI

Alignment Is the Disease: Censorship Visibility and Alignment Constraint Complexity as Determinants of Collective Pathology in Multi-Agent LLM Systems

Cette étude préliminaire suggère que les techniques d'alignement des modèles de langage, en particulier lorsqu'elles impliquent une censure invisible ou des contraintes complexes, peuvent paradoxalement générer des pathologies collectives et des dissociations entre la compréhension et l'action au sein de systèmes multi-agents, révélant ainsi un risque de préjudice iatrogène inhérent aux interventions de sécurité actuelles.

Hiroki Fukui2026-03-11🤖 cs.AI

PhD Thesis Summary: Methods for Reliability Assessment and Enhancement of Deep Neural Network Hardware Accelerators

Cette thèse de doctorat présente des méthodes novatrices et économiques pour évaluer et améliorer la fiabilité des accélérateurs matériels de réseaux de neurones profonds, notamment par le développement d'outils d'analyse, l'optimisation des compromis entre efficacité et tolérance aux pannes, et la création de la technique AdAM pour une amélioration de la fiabilité en temps réel sans surcoût matériel.

Mahdi Taheri2026-03-11🤖 cs.AI

ARKV: Adaptive and Resource-Efficient KV Cache Management under Limited Memory Budget for Long-Context Inference in LLMs

Ce papier présente ARKV, un cadre adaptatif et léger qui optimise la gestion du cache KV pour l'inférence de grands modèles de langage à contexte long en allouant dynamiquement des niveaux de précision aux tokens, permettant ainsi de réduire l'utilisation de la mémoire GPU par un facteur quatre tout en préservant la précision du modèle sans nécessiter de réentraînement.

Jianlong Lei, Shashikant Ilager2026-03-11🤖 cs.AI

Measurement-Free Ancilla Recycling via Blind Reset: A Cross-Platform Study on Superconducting and Trapped-Ion Processors

Cette étude comparative sur les processeurs supraconducteurs et à ions piégés démontre que le recyclage aveugle des ancillas permet de réduire considérablement la latence des cycles de correction d'erreurs tout en maintenant une propreté suffisante pour des codes de répétition, offrant ainsi des directives de déploiement spécifiques à chaque architecture.

Sangkeum Lee2026-03-11⚛️ quant-ph