SecP-Tuning: Efficient Privacy-Preserving Prompt Tuning for Large Language Models via MPC

Ce papier présente SecP-Tuning, un cadre innovant basé sur le calcul multipartite sécurisé qui permet un réglage efficace et privé des grands modèles de langage en combinant un apprentissage sans rétropropagation et une attention par caractéristiques aléatoires pour réduire considérablement les coûts de calcul et de communication.

Jinglong Luo, Zhuo Zhang, Yehong Zhang + 6 more2026-03-03🤖 cs.LG

When Does Divide and Conquer Work for Long Context LLM? A Noise Decomposition Framework

Cet article propose un cadre théorique de décomposition du bruit pour analyser les échecs des LLMs sur de longs contextes et démontre que l'approche par découpage et agrégation (multi-agent chunking) permet de surpasser des modèles avancés en traitement unique grâce à une gestion optimisée des dépendances croisées, de la confusion contextuelle et de l'intégration des résultats.

Zhen Xu, Shang Zhu, Jue Wang + 5 more2026-03-03💬 cs.CL

TRIDENT: Tri-Modal Molecular Representation Learning with Taxonomic Annotations and Local Correspondence

Le papier présente TRIDENT, un cadre novateur d'apprentissage de représentations moléculaires tri-modales qui intègre les structures SMILES, les descriptions textuelles et les annotations taxonomiques fonctionnelles via des objectifs d'alignement global et local pour atteindre des performances de pointe dans la prédiction des propriétés moléculaires.

Feng Jiang, Mangal Prakash, Hehuan Ma + 6 more2026-03-03🤖 cs.LG

SlimCaching: Edge Caching of Mixture-of-Experts for Distributed Inference

Ce papier propose une méthode de décomposition greedy successive et un algorithme accéléré par convolution max pour optimiser la mise en cache des experts sur les serveurs de bord, afin de minimiser la latence d'inférence distribuée des modèles Mixture-of-Experts (MoE) malgré les contraintes de stockage et la non-sous-modularité introduite par la co-activation des experts.

Qian Chen, Xianhao Chen, Kaibin Huang2026-03-03🤖 cs.LG

A Projection-Based ARIMA Framework for Nonlinear Dynamics in Macroeconomic and Financial Time Series: Closed-Form Estimation and Rolling-Window Inference

Cet article présente Galerkin-ARIMA et Galerkin-SARIMA, une extension par projection des modèles classiques qui remplace les opérateurs de retard linéaires rigides par des expansions de base de Galerkin pour mieux capturer les dynamiques non linéaires dans les séries temporelles macroéconomiques et financières, tout en conservant une estimation sous forme close et une structure d'opérateurs AR-MA familière.

Haojie Liu, Zihan Lin2026-03-03📈 econ

Physics-Based Machine Learning Closures and Wall Models for Hypersonic Transition-Continuum Boundary Layer Predictions

Cette étude développe un cadre d'apprentissage machine contraint par la physique, combinant des modèles de réseaux de neurones pour les contraintes visqueuses et un modèle de paroi basé sur une distribution de vitesse de particules gaussienne biaisée, afin d'améliorer la précision des prédictions des écoulements hypersoniques dans le régime de transition continuum où les modèles classiques échouent.

Ashish S. Nair, Narendra Singh, Marco Panesi + 2 more2026-03-03🔬 physics

Separating Ansatz Discovery from Deployment on Larger Problems: Reinforcement Learning for Modular Circuit Design

Cet article propose une approche de Reinforcement Learning pour la conception modulaire de circuits quantiques, où une structure de bloc réutilisable est découverte sur de petits systèmes et ensuite déployée avec succès sur des problèmes plus grands, contournant ainsi la difficulté de modéliser de grands systèmes quantiques pour l'apprentissage automatique.

Gloria Turati, Simone FoderÃ, Riccardo Nembrini + 2 more2026-03-03⚛️ quant-ph

Minor Embedding for Quantum Annealing with Reinforcement Learning

Cet article propose une approche d'apprentissage par renforcement utilisant l'optimisation de politique proximale pour résoudre le problème coûteux du minor embedding dans l'optimisation quantique par recuit, démontrant ainsi sa capacité à générer des embeddings valides et évolutifs sur différentes topologies matérielles comme Chimera et Zephyr.

Riccardo Nembrini, Maurizio Ferrari Dacrema, Paolo Cremonesi2026-03-03⚛️ quant-ph