FLoRG: Federated Fine-tuning with Low-rank Gram Matrices and Procrustes Alignment

Le papier propose FLoRG, un cadre d'apprentissage fédéré qui améliore l'efficacité du fine-tuning des grands modèles de langage en agrégeant une matrice de Gram à faible rang unique et en utilisant une alignement de Procruste pour éliminer les erreurs d'agrégation et la dérive de décomposition, réduisant ainsi considérablement la surcharge de communication tout en augmentant la précision des tâches.

Chuiyang Meng, Ming Tang, Vincent W. S. Wong2026-03-09🤖 cs.AI

Conditionally Site-Independent Neural Evolution of Antibody Sequences

Le papier présente CoSiNE, un modèle d'évolution neuronale conditionnellement indépendant du site qui combine la puissance des réseaux de neurones avec les dynamiques évolutives pour prédire les effets des variants d'anticorps et optimiser leur affinité de liaison, surpassant ainsi les modèles de langage actuels.

Stephen Zhewen Lu, Aakarsh Vermani, Kohei Sanno, Jiarui Lu, Frederick A Matsen, Milind Jagota, Yun S. Song2026-03-09🤖 cs.LG

What Topological and Geometric Structure Do Biological Foundation Models Learn? Evidence from 141 Hypotheses

Cette étude démontre, grâce à une validation autonome de 141 hypothèses, que les modèles de fondation biologiques apprennent une structure géométrique et topologique réelle et partagée, bien que localisée principalement dans les tissus immunitaires, qui dépasse la simple métrique euclidienne pour capturer des relations biologiques significatives.

Ihor Kendiukhov2026-03-09🤖 cs.LG

Coverage-Aware Web Crawling for Domain-Specific Supplier Discovery via a Web--Knowledge--Web Pipeline

Cet article propose un pipeline Web-Knowledge-Web itératif qui combine l'extraction de connaissances par LLM et l'estimation de couverture écologique pour découvrir de manière efficace et précise les PME du secteur de l'équipement semi-conducteur, en réduisant significativement le nombre de pages nécessaires par rapport aux méthodes de base.

Yijiashun Qi, Yijiazhen Qi, Tanmay Wagh2026-03-09🤖 cs.LG

Weight Updates as Activation Shifts: A Principled Framework for Steering

Ce papier propose un cadre théorique établissant l'équivalence entre les mises à jour de poids et les décalages d'activation, permettant de concevoir une méthode de « post-block steering » qui atteint des performances proches du réglage fin complet avec une fraction infime de paramètres, tout en surpassant les méthodes d'adaptation existantes grâce à une approche d'adaptation conjointe.

Dyah Adila, John Cooper, Alexander Yun, Avi Trost, Frederic Sala2026-03-09🤖 cs.LG

Reparameterized Tensor Ring Functional Decomposition for Multi-Dimensional Data Recovery

Cet article propose une décomposition fonctionnelle en anneau de tenseurs reparamétrée, utilisant des représentations neuronales implicites et une analyse fréquentielle pour améliorer la récupération de données multidimensionnelles continues, surpassant ainsi les méthodes existantes dans des tâches telles que l'inpainting et la super-résolution.

Yangyang Xu, Junbo Ke, You-Wei Wen, Chao Wang2026-03-09🤖 cs.AI

LMU-Based Sequential Learning and Posterior Ensemble Fusion for Cross-Domain Infant Cry Classification

Cet article propose un cadre acoustique compact combinant un encodeur CNN multi-branches, une unité de mémoire Legendre (LMU) pour la modélisation temporelle efficace et une fusion d'ensemble postérieure calibrée, afin d'améliorer la classification des cris de nourrissons dans des scénarios inter-domaines malgré les défis liés aux signaux non stationnaires et aux décalages de distribution.

Niloofar Jazaeri, Hilmi R. Dajani, Marco Janeczek, Martin Bouchard2026-03-09🤖 cs.LG

Rigidity-Aware Geometric Pretraining for Protein Design and Conformational Ensembles

Le papier présente RigidSSL, un cadre d'apprentissage auto-supervisé géométrique qui améliore la conception de protéines et la modélisation des ensembles conformationnels en apprenant des priorités géométriques rigides via des perturbations simulées et des trajectoires de dynamique moléculaire, surpassant ainsi les méthodes existantes en termes de capacité de conception, de diversité et de réalisme biophysique.

Zhanghan Ni, Yanjing Li, Zeju Qiu, Bernhard Schölkopf, Hongyu Guo, Weiyang Liu, Shengchao Liu2026-03-09🤖 cs.AI

Traversal-as-Policy: Log-Distilled Gated Behavior Trees as Externalized, Verifiable Policies for Safe, Robust, and Efficient Agents

Ce papier propose Traversal-as-Policy, une méthode qui transforme les logs d'exécution OpenHands en arbres de comportement à portes (GBT) exécutables pour remplacer la génération de politique implicite par une navigation contrôlée et vérifiable, améliorant ainsi considérablement le taux de réussite, la sécurité et l'efficacité des agents LLM sur des tâches complexes.

Peiran Li, Jiashuo Sun, Fangzhou Lin, Shuo Xing, Tianfu Fu, Suofei Feng, Chaoqun Ni, Zhengzhong Tu2026-03-09🤖 cs.AI

JAWS: Enhancing Long-term Rollout of Neural Operators via Spatially-Adaptive Jacobian Regularization

Cet article présente JAWS, une méthode de régularisation probabiliste adaptative spatialement qui améliore la stabilité à long terme et la fidélité des chocs des opérateurs neuronaux en modulant dynamiquement la contrainte de contraction selon la complexité physique locale, permettant ainsi une optimisation de trajectoire efficace en mémoire.

Fengxiang Nie, Yasuhiro Suzuki2026-03-09🤖 cs.AI

Attention Meets Reachability: Structural Equivalence and Efficiency in Grammar-Constrained LLM Decoding

Cet article établit un cadre théorique unifié pour le décodage contraint par grammaire, démontrant que l'équivalence linguistique n'implique pas l'efficacité computationnelle et prouvant que la complexité structurelle inhérente à certaines grammaires impose des bornes inférieures incompressibles sur le coût de décodage, tout en fournissant des métriques d'optimisation et des garanties de distorsion pour les architectures de modèles de langage modernes.

Faruk Alpay, Bilge Senturk2026-03-09🤖 cs.LG

An intuitive rearranging of the Yates covariance decomposition for probabilistic verification of forecasts with the Brier score

Cet article propose une réorganisation algébrique intuitive de la décomposition de la covariance de Yates pour le score de Brier, décomposant l'erreur de prévision probabiliste en trois termes non négatifs qui rendent transparentes les conditions d'optimalité : l'adéquation de la variance, la corrélation parfaite et la calibration globale.

Bruno Hebling Vieira (Methods of Plasticity Research, Department of Psychology, University of Zurich, Zurich, Switzerland)2026-03-09🤖 cs.LG