TAO: Tolerance-Aware Optimistic Verification for Floating-Point Neural Networks

Ce papier présente TAO, un protocole de vérification optimiste et tolérant aux erreurs qui garantit l'intégrité des inférences de réseaux de neurones flottants sur des matériels hétérogènes non fiables en acceptant des résultats dans des plages d'erreur définies et en utilisant un jeu de contestation hiérarchique, le tout sans nécessiter de matériel de confiance ni de noyaux déterministes.

Jianzhu Yao, Hongxu Su, Taobo Liao + 4 more2026-03-03⚡ eess

Fly-CL: A Fly-Inspired Framework for Enhancing Efficient Decorrelation and Reduced Training Time in Pre-trained Model-based Continual Representation Learning

Inspiré par le circuit olfactif de la mouche, Fly-CL est un cadre bio-inspiré qui améliore l'apprentissage continu de représentations en résolvant efficacement la multicolinéarité et en réduisant considérablement le temps d'entraînement tout en maintenant des performances de pointe.

Heming Zou, Yunliang Zang, Wutong Xu + 1 more2026-03-03🤖 cs.AI

Decoding Dynamic Visual Experience from Calcium Imaging via Cell-Pattern-Aware Pretraining

Ce papier présente POYO-CAP, une stratégie de préentraînement hybride qui exploite l'hétérogénéité des neurones en sélectionnant d'abord les cellules statistiquement régulières pour l'apprentissage, permettant ainsi une amélioration significative et une mise à l'échelle fluide du décodage des expériences visuelles dynamiques à partir d'images calciques.

Sangyoon Bae, Mehdi Azabou, Blake Richards + 1 more2026-03-03🧬 q-bio

LightMem: Lightweight and Efficient Memory-Augmented Generation

Le papier présente LightMem, un système de mémoire léger et efficace inspiré du modèle humain d'Atkinson-Shiffrin qui, grâce à une organisation en trois étapes (mémoire sensorielle, court terme et long terme avec mise à jour hors ligne), améliore significativement la précision des LLMs tout en réduisant drastiquement l'utilisation de tokens et les appels API par rapport aux méthodes existantes.

Jizhan Fang, Xinle Deng, Haoming Xu + 9 more2026-03-03💬 cs.CL

Loopholing Discrete Diffusion: Deterministic Bypass of the Sampling Wall

Ce papier présente les modèles de diffusion discrète à contournement (LDDMs), une approche novatrice qui surmonte la « paroi d'échantillonnage » des modèles de diffusion discrets grâce à un chemin latent déterministe, permettant ainsi de réduire considérablement la perplexité générative et d'améliorer la cohérence du texte et les performances de raisonnement, rivalisant ainsi avec les modèles autoregressifs.

Mingyu Jo, Jaesik Yoon, Justin Deschenaux + 2 more2026-03-03🤖 cs.LG

A Convergence Analysis of Adaptive Optimizers under Floating-point Quantization

Cet article présente le premier cadre théorique établissant les taux de convergence des optimiseurs adaptatifs comme Adam et Muon sous quantification en virgule flottante, démontrant que leur efficacité est préservée à condition que la longueur de la mantisse croisse logarithmiquement avec le nombre d'itérations, tout en révélant la sensibilité accrue d'Adam aux erreurs de quantification par rapport à Muon.

Xuan Tang, Jichu Li, Difan Zou2026-03-03📊 stat

Accelerating Data Generation for Nonlinear temporal PDEs via homologous perturbation in solution space

Cet article propose un nouvel algorithme de génération de données, appelé HOPSS, qui accélère considérablement la création de jeux d'entraînement pour les équations aux dérivées partielles non linéaires temporelles en utilisant une perturbation homologue dans l'espace des solutions, réduisant ainsi le temps de calcul à environ 10 % des méthodes traditionnelles tout en préservant la précision nécessaire à l'entraînement des modèles.

Lei Liu, Zhenxin Huang, Hong Wang + 4 more2026-03-03🤖 cs.LG

Clustering by Denoising: Latent plug-and-play diffusion for single-cell data

Cet article présente un cadre de diffusion plug-and-play dans l'espace latent qui améliore le regroupement des données de séquençage ARN à cellule unique en séparant l'espace d'observation de l'espace de débruitage via une procédure d'échantillonnage de Gibbs, permettant ainsi un traitement adaptatif du bruit, une quantification de l'incertitude et une meilleure cohérence biologique des clusters.

Dominik Meier, Shixing Yu, Sagnik Nandy + 2 more2026-03-03📊 stat

Adaptive Context Length Optimization with Low-Frequency Truncation for Multi-Agent Reinforcement Learning

Cet article propose un cadre d'apprentissage par renforcement multi-agent adaptatif qui optimise dynamiquement la longueur du contexte via une analyse de gradient temporel et une troncature des basses fréquences pour éliminer les informations redondantes, améliorant ainsi l'efficacité de l'exploration et les performances sur des tâches à dépendances à long terme.

Wenchang Duan, Yaoliang Yu, Jiwan He + 1 more2026-03-03🤖 cs.LG

Data-Augmented Deep Learning for Downhole Depth Sensing and Validation

Cet article présente une approche d'apprentissage profond enrichie par des techniques d'augmentation de données, notamment la régularisation et l'échantillonnage multiple, pour améliorer la précision et la généralisation des modèles de reconnaissance des raccords de tubage dans des conditions de données limitées, validant ainsi leur efficacité sur des signaux réels pour la calibration de la profondeur en forage.

Si-Yu Xiao, Xin-Di Zhao, Tian-Hao Mao + 8 more2026-03-03⚡ eess