CogGen: Cognitive-Load-Informed Fully Unsupervised Deep Generative Modeling for Compressively Sampled MRI Reconstruction

Le papier propose CogGen, une approche de génération profonde entièrement non supervisée pour la reconstruction d'IRM échantillonnée de manière compressive qui améliore la fidélité et la convergence en régulant la charge cognitive via un apprentissage par curriculum qui hiérarchise progressivement la difficulté des données d'entraînement.

Qingyong Zhu, Yumin Tan, Xiang Gu + 1 more2026-03-06💻 cs

AMV-L: Lifecycle-Managed Agent Memory for Tail-Latency Control in Long-Running LLM Systems

Ce papier présente AMV-L, un cadre de gestion de mémoire pour agents LLM à longue durée de vie qui remplace les politiques de rétention basées sur l'âge par une gestion de cycle de vie pilotée par la valeur, permettant ainsi de borner la taille de l'ensemble de travail de récupération et de réduire considérablement la latence extrême tout en maintenant la qualité des réponses.

Emmanuel Bamidele2026-03-06💻 cs

MAD-SmaAt-GNet: A Multimodal Advection-Guided Neural Network for Precipitation Nowcasting

Ce papier présente le MAD-SmaAt-GNet, un réseau de neurones multimodal guidé par l'advection qui améliore la précision et l'efficacité du prévisionnisme des précipitations en combinant l'apprentissage de multiples variables météorologiques avec une composante physique, réduisant ainsi l'erreur quadratique moyenne par rapport à l'architecture de base SmaAt-UNet.

Samuel van Wonderen, Siamak Mehrkanoon2026-03-06💻 cs

Understanding the Dynamics of Demonstration Conflict in In-Context Learning

Cette étude révèle que les modèles de langage souffrent de conflits dans les exemples few-shot car ils codent d'abord les règles contradictoires dans leurs couches intermédiaires avant de développer une confiance biaisée dans les couches tardives, un mécanisme que l'on peut atténuer en masquant sélectivement des têtes d'attention spécifiques pour améliorer les performances de plus de 10 %.

Difan Jiao, Di Wang, Lijie Hu2026-03-06💻 cs

Towards Explainable Deep Learning for Ship Trajectory Prediction in Inland Waterways

Cette étude propose un modèle de prédiction de trajectoire de navires en voies navigables intérieures basé sur un LSTM et des paramètres de domaine naval pour améliorer l'interprétabilité, révélant que bien que l'architecture d'attention améliore la précision, les poids appris ne reflètent pas toujours une relation causale attendue entre les trajectoires des navires.

Tom Legel, Dirk Söffker, Roland Schätzle + 1 more2026-03-06💻 cs

Dictionary Based Pattern Entropy for Causal Direction Discovery

Cet article propose un cadre novateur de « Dictionary Based Pattern Entropy » (DPE) qui, en combinant la théorie de l'information algorithmique et de Shannon, infère avec succès la direction de causalité et les sous-motifs déterminants dans les séquences symboliques temporelles en minimisant l'incertitude liée aux motifs, surpassant ainsi les méthodes existantes sur divers systèmes synthétiques et réels.

Harikrishnan N B, Shubham Bhilare, Aditi Kathpalia + 1 more2026-03-06🔢 math

Standing on the Shoulders of Giants: Rethinking EEG Foundation Model Pretraining via Multi-Teacher Distillation

Cet article propose le cadre MTDP, une méthode de pré-entraînement par distillation multi-enseignants qui exploite des modèles fondationnels existants en vision et en séries temporelles pour améliorer l'apprentissage des modèles fondationnels EEG, surpassant ainsi les approches auto-supervisées tout en nécessitant seulement 25 % des données de pré-entraînement.

Chenqi Li, Yu Liu, Shuo Zhang + 2 more2026-03-06💻 cs

Bayesian Modeling of Collatz Stopping Times: A Probabilistic Machine Learning Perspective

Cet article propose une modélisation bayésienne des temps d'arrêt de la conjecture de Collatz en comparant une régression hiérarchique binomiale négative et une approximation générative basée sur la décomposition en blocs impairs, démontrant que la structure modulaire de bas ordre (notamment nmod8n \bmod 8) est un facteur clé de l'hétérogénéité observée.

Nicolò Bonacorsi, Matteo Bordoni2026-03-06🔢 math