Coarse-Guided Visual Generation via Weighted h-Transform Sampling

Cet article propose une méthode de génération visuelle sans entraînement, basée sur la transformée h et un calendrier de pondération adaptatif, pour synthétiser des échantillons de haute qualité à partir de références dégradées tout en surmontant les limites des approches existantes concernant la connaissance de l'opérateur de transformation et l'équilibre entre guidage et qualité.

Yanghao Wang, Ziqi Jiang, Zhen Wang, Long Chen2026-03-13🤖 cs.AI

Chemical Reaction Networks Learn Better than Spiking Neural Networks

Ce papier démontre mathématiquement et expérimentalement que les réseaux de réactions chimiques sans couches cachées surpassent les réseaux de neurones à impulsions nécessitant des couches cachées pour l'apprentissage de tâches de classification, offrant ainsi une explication mathématique à l'efficacité potentielle de l'apprentissage dans les réseaux biochimiques cellulaires.

Sophie Jaffard, Ivo F. Sbalzarini2026-03-13📊 stat

Paper Title: LoV3D: Grounding Cognitive Prognosis Reasoning in Longitudinal 3D Brain MRI via Regional Volume Assessments

Le papier présente LoV3D, une pipeline d'apprentissage profond qui ancre le pronostic cognitif dans l'évaluation longitudinale des volumes cérébraux 3D via un vérificateur pondéré cliniquement, permettant ainsi d'atteindre une haute précision diagnostique et de réduire les hallucinations sans nécessiter d'annotations humaines.

Zhaoyang Jiang, Zhizhong Fu, David McAllister, Yunsoo Kim, Honghan Wu2026-03-13🤖 cs.AI

A Multi-Label Temporal Convolutional Framework for Transcription Factor Binding Characterization

Cet article propose un cadre d'apprentissage profond basé sur des réseaux de convolution temporelle pour traiter la reconnaissance des sites de liaison des facteurs de transcription comme un problème de classification multi-étiquettes, permettant ainsi de prédire simultanément plusieurs profils de liaison, de capturer leurs corrélations et de révéler des motifs biologiques ainsi que des mécanismes coopératifs, y compris de nouvelles relations entre facteurs de transcription.

Pietro Demurtas, Ferdinando Zanchetta, Giovanni Perini, Rita Fioresi2026-03-13🧬 q-bio

Resource-Efficient Iterative LLM-Based NAS with Feedback Memory

Cet article propose une méthode de recherche d'architecture neuronale (NAS) économe en ressources qui utilise des modèles de langage (LLM) de taille modeste et une mémoire de feedback itérative pour concevoir et optimiser automatiquement des architectures de réseaux de neurones performantes pour la classification d'images sur un seul GPU grand public, sans nécessiter de fine-tuning ni d'infrastructure cloud.

Xiaojie Gu, Dmitry Ignatov, Radu Timofte2026-03-13🤖 cs.LG

A Robust and Efficient Multi-Agent Reinforcement Learning Framework for Traffic Signal Control

Cet article propose un cadre robuste et efficace d'apprentissage par renforcement multi-agents pour le contrôle des feux de circulation, intégrant des mécanismes de randomisation des ratios de tournants, un ajustement exponentiel de la durée des phases et une observation basée sur les voisins, ce qui permet de réduire le temps d'attente moyen de plus de 10 % tout en améliorant la généralisation et la stabilité face aux variations dynamiques du trafic.

Sheng-You Huang, Hsiao-Chuan Chang, Yen-Chi Chen, Ting-Han Wei, I-Hau Yeh, Sheng-Yao Kuan, Chien-Yao Wang, Hsuan-Han Lee, I-Chen Wu2026-03-13🤖 cs.AI

On Information Self-Locking in Reinforcement Learning for Active Reasoning of LLM agents

Cet article identifie et résout le problème de l'auto-verrouillage informationnel dans les agents LLM utilisant l'apprentissage par renforcement pour le raisonnement actif, en décomposant la tâche en sélection d'action et suivi de croyance pour proposer une méthode d'injection de critiques directionnelles qui améliore significativement les performances.

Deyu Zou, Yongqiang Chen, Fan Feng, Mufei Li, Pan Li, Yu Gong, James Cheng2026-03-13🤖 cs.AI

SommBench: Assessing Sommelier Expertise of Language Models

Ce papier présente SommBench, un nouveau benchmark multilingue conçu pour évaluer l'expertise des modèles de langage dans le domaine de la sommellerie, en testant leur capacité à maîtriser la théorie du vin, la complétion de caractéristiques et l'accord mets-vins au-delà de la simple connaissance textuelle.

William Brach, Tomas Bedej, Jacob Nielsen, Jacob Pichna, Juraj Bedej, Eemeli Saarensilta, Julie Dupouy, Gianluca Barmina, Andrea Blasi Núñez, Peter Schneider-Kamp, Kristian Koštál, Michal Ries, Lukas Galke Poech2026-03-13💬 cs.CL

TopoBench: Benchmarking LLMs on Hard Topological Reasoning

Ce papier présente TopoBench, un benchmark évaluant les capacités de raisonnement topologique des grands modèles de langage sur des énigmes spatiales complexes, révélant que leurs échecs proviennent principalement de difficultés à extraire et maintenir les contraintes spatiales plutôt que d'une incapacité à raisonner sur celles-ci.

Mayug Maniparambil, Nils Hoehing, Janak Kapuriya, Arjun Karuvally, Ellen Rushe, Anthony Ventresque, Noel O'Connor, Fergal Reid2026-03-13🤖 cs.AI

FlashMotion: Few-Step Controllable Video Generation with Trajectory Guidance

Le papier présente FlashMotion, un cadre d'entraînement novateur qui permet une génération vidéo contrôlée par trajectoire en quelques étapes en combinant l'entraînement d'un adaptateur de trajectoire, la distillation d'un générateur vidéo et un affinage hybride, surpassant ainsi les méthodes existantes en qualité visuelle et en précision du mouvement.

Quanhao Li, Zhen Xing, Rui Wang, Haidong Cao, Qi Dai, Daoguo Dong, Zuxuan Wu2026-03-13🤖 cs.LG

IsoCompute Playbook: Optimally Scaling Sampling Compute for LLM RL

Ce papier propose un guide pratique pour l'entraînement par renforcement des grands modèles de langage en identifiant les règles d'allocation optimales des ressources de calcul, notamment en démontrant que le nombre de déroulés parallèles par problème doit augmenter puis se saturer en fonction du budget disponible pour améliorer la stabilité et l'efficacité.

Zhoujun Cheng, Yutao Xie, Yuxiao Qu, Amrith Setlur, Shibo Hao, Varad Pimpalkhute, Tongtong Liang, Feng Yao, Zhengzhong Liu, Eric Xing, Virginia Smith, Ruslan Salakhutdinov, Zhiting Hu, Taylor Killian, Aviral Kumar2026-03-13🤖 cs.LG

GlyphBanana: Advancing Precise Text Rendering Through Agentic Workflows

Le papier présente GlyphBanana, une méthode sans entraînement utilisant un flux de travail d'agents pour intégrer des modèles de glyphes dans l'espace latent et les cartes d'attention, permettant ainsi d'améliorer considérablement la précision du rendu de textes complexes et de formules mathématiques dans les modèles de génération d'images.

Zexuan Yan, Jiarui Jin, Yue Ma, Shijian Wang, Jiahui Hu, Wenxiang Jiao, Yuan Lu, Linfeng Zhang2026-03-13🤖 cs.AI

A Quantitative Characterization of Forgetting in Post-Training

Ce papier propose une caractérisation quantitative du phénomène d'oubli lors du post-entraînement continu de modèles génératifs en démontrant théoriquement comment la direction de la divergence (KL direct ou inverse), le chevauchement géométrique des modes et les stratégies d'échantillonnage déterminent respectivement l'effondrement des poids des anciennes tâches ou leur dérive contrôlée.

Krishnakumar Balasubramanian, Shiva Prasad Kasiviswanathan2026-03-13📊 stat

BehaviorVLM: Unified Finetuning-Free Behavioral Understanding with Vision-Language Reasoning

Le papier présente BehaviorVLM, un cadre unifié vision-langage qui permet une estimation de pose et une compréhension comportementale évolutives et interprétables pour des animaux en mouvement libre, sans nécessiter d'affinage spécifique ni d'annotations humaines massives, en guidant des modèles pré-entraînés par un raisonnement explicite et vérifiable.

Jingyang Ke, Weihan Li, Amartya Pradhan, Jeffrey Markowitz, Anqi Wu2026-03-13🤖 cs.AI