Dynamic Chunking Diffusion Transformer

Le papier présente le DC-DiT, un modèle de diffusion Transformer qui améliore l'efficacité et la qualité de la génération d'images en adaptant dynamiquement le nombre de tokens utilisés selon la complexité visuelle des régions et l'étape du processus de débruitage, surpassant ainsi les architectures DiT classiques tout en permettant un réentraînement minimal.

Akash Haridas, Utkarsh Saxena, Parsa Ashrafi Fashi, Mehdi Rezagholizadeh, Vikram Appia, Emad Barsoum2026-03-09🤖 cs.AI

Tiny, Hardware-Independent, Compression-based Classification

Cet article propose une méthode de classification basée sur la distance de compression normalisée, qui, bien que n'étant pas une métrique formelle, permet d'entraîner des modèles précis et légers directement sur les appareils clients en utilisant uniquement les données de l'utilisateur, résolvant ainsi les problèmes de confidentialité et de contraintes matérielles.

Charles Meyers, Aaron MacSween, Erik Elmroth, Tommy Löfstedt2026-03-09🤖 cs.LG

CLAIRE: Compressed Latent Autoencoder for Industrial Representation and Evaluation -- A Deep Learning Framework for Smart Manufacturing

Ce papier présente CLAIRE, un cadre d'apprentissage profond hybride pour la détection de défauts dans la fabrication intelligente, qui combine un autoencodeur pour l'apprentissage de représentations latentes compactes et une classification supervisée, le tout renforcé par une interprétabilité basée sur la théorie des jeux pour identifier les caractéristiques clés.

Mohammadhossein Ghahramani, Mengchu Zhou2026-03-09🤖 cs.AI

Kinetic-based regularization: Learning spatial derivatives and PDE applications

Cet article présente une extension de la régularisation cinétique (KBR) pour l'estimation précise et adaptative aux bruits des dérivées spatiales via des schémas explicites et implicites, permettant ainsi la résolution stable d'équations aux dérivées partielles hyperboliques sur des nuages de points irréguliers tout en préservant les lois de conservation.

Abhisek Ganguly, Santosh Ansumali, Sauro Succi2026-03-09🤖 cs.AI

Talk Freely, Execute Strictly: Schema-Gated Agentic AI for Flexible and Reproducible Scientific Workflows

Cet article propose une architecture d'orchestration à « grille de schéma » qui sépare la flexibilité conversationnelle de l'exécution déterministe pour permettre des flux de travail scientifiques à la fois agiles et reproductibles, tout en validant cette approche par une évaluation comparative de 20 systèmes réalisée par des modèles de langage multiples.

Joel Strickland, Arjun Vijeta, Chris Moores, Oliwia Bodek, Bogdan Nenchev, Thomas Whitehead, Charles Phillips, Karl Tassenberg, Gareth Conduit, Ben Pellegrini2026-03-09🤖 cs.AI

Efficient, Property-Aligned Fan-Out Retrieval via RL-Compiled Diffusion

Le papier propose R4T, une méthode qui utilise l'apprentissage par renforcement pour synthétiser des données d'entraînement alignées sur des objectifs d'ensemble, permettant ainsi d'entraîner un récupérateur basé sur la diffusion qui améliore la qualité de la recherche tout en réduisant considérablement la latence par rapport aux approches existantes.

Pengcheng Jiang, Judith Yue Li, Moonkyung Ryu, R. Lily Hu, Kun Su, Zhong Yi Wan, Liam Hebert, Hao Peng, Jiawei Han, Dima Kuzmin, Craig Boutilier2026-03-09🤖 cs.LG

Certified and accurate computation of function space norms of deep neural networks

Cet article présente un cadre de calcul certifié et précis des normes d'espaces fonctionnelles (telles que LpL^p et Sobolev) pour les réseaux de neurones profonds, en combinant l'arithmétique par intervalles, le raffinement adaptatif et l'agrégation par quadrature afin de fournir des bornes déterministes garanties sur les résidus des PINN.

Johannes Gründler, Moritz Maibaum, Philipp Petersen2026-03-09🤖 cs.LG

Toward Generative Quantum Utility via Correlation-Complexity Map

Cet article propose une carte de corrélation-complexité, dotée des indicateurs QCLI et CCI, pour identifier les distributions de données compatibles avec les modèles génératifs quantiques de type IQP et démontre que cette approche permet d'atteindre une utilité générative quantique compétitive sur des données de turbulence avec moins de ressources que les modèles classiques.

Chen-Yu Liu, Leonardo Placidi, Eric Brunner, Enrico Rinaldi2026-03-09⚛️ quant-ph

NOBLE: Accelerating Transformers with Nonlinear Low-Rank Branches

Le papier présente NOBLE, une architecture d'augmentation permanente intégrant des branches non linéaires de faible rang dans les couches linéaires des transformateurs pour accélérer l'entraînement à partir de zéro avec un surcoût paramétrique minimal, offrant jusqu'à 1,22 fois une accélération nette du temps d'exécution tout en améliorant l'efficacité sur divers modèles comme les LLM, BERT et ViT.

Ethan Smith (Canva Research)2026-03-09🤖 cs.AI

When One Modality Rules Them All: Backdoor Modality Collapse in Multimodal Diffusion Models

Ce papier remet en cause l'idée que les attaques par porte dérobée sur plusieurs modalités renforcent les modèles de diffusion multimodaux, en révélant un phénomène de « collapse » où le mécanisme d'attaque se dégrade pour dépendre exclusivement d'une seule modalité, rendant les autres redondantes.

Qitong Wang, Haoran Dai, Haotian Zhang, Christopher Rasmussen, Binghui Wang2026-03-09🤖 cs.LG