LoRA-MME: Multi-Model Ensemble of LoRA-Tuned Encoders for Code Comment Classification

Dans le cadre de la compétition NLBSE'26, l'outil LoRA-MME propose un ensemble de quatre encodeurs transformateurs adaptés via LoRA pour la classification multi-label de commentaires de code, obtenant de solides performances sémantiques mais révélant un compromis défavorable entre précision et efficacité d'inférence dû à son coût computationnel élevé.

Md Akib Haider, Ahsan Bulbul, Nafis Fuad Shahid + 2 more2026-03-06💻 cs

Machine Learning for Complex Systems Dynamics: Detecting Bifurcations in Dynamical Systems with Deep Neural Networks

Cette étude propose une nouvelle approche basée sur les réseaux de neurones profonds, nommée EINNs, qui inverse le processus traditionnel en utilisant les états d'équilibre pour inférer les paramètres du système, permettant ainsi de détecter efficacement les seuils critiques et les bifurcations dans les systèmes dynamiques complexes.

Swadesh Pal, Roderick Melnik2026-03-06🔢 math

FedEMA-Distill: Exponential Moving Average Guided Knowledge Distillation for Robust Federated Learning

L'article propose FedEMA-Distill, une méthode de distillation de connaissances guidée par une moyenne mobile exponentielle qui améliore la robustesse et l'efficacité des communications de l'apprentissage fédéré face aux données hétérogènes et aux attaques malveillantes en n'exigeant que l'envoi de logits compressés depuis les clients.

Hamza Reguieg, Mohamed El Kamili, Essaid Sabir2026-03-06💻 cs

Data-Driven Optimization of Multi-Generational Cellular Networks: A Performance Classification Framework for Strategic Infrastructure Management

En analysant un jeu de données OpenCelliD de 1 818 antennes cellulaires, cette étude propose un cadre de classification des performances pour optimiser la gestion stratégique des réseaux multi-générations, identifier les zones de congestion et guider les investissements en infrastructure LTE, notamment au Pakistan.

Maryam Sabahat, M. Umar Khan2026-03-06💻 cs

Delta-Crosscoder: Robust Crosscoder Model Diffing in Narrow Fine-Tuning Regimes

Le papier présente Delta-Crosscoder, une méthode améliorée de diffage de modèles qui surpasse les approches existantes pour isoler et atténuer les changements de comportement localisés dans des régimes d'affinage étroits en combinant la parcimonie BatchTopK avec une fonction de perte basée sur les deltas et un signal contrastif implicite.

Aly Kassem, Thomas Jiralerspong, Negar Rostamzadeh + 1 more2026-03-06💻 cs

Flowers: A Warp Drive for Neural PDE Solvers

Le papier présente Flowers, une architecture neuronale innovante pour la résolution d'équations aux dérivées partielles (EDP) qui, en se basant exclusivement sur des opérations de déformation (warps) multi-têtes sans attention ni convolution, atteint des performances supérieures aux modèles existants tout en garantissant une complexité linéaire et une efficacité computationnelle accrue.

Till Muser, Alexandra Spitzer, Matti Lassas + 2 more2026-03-06💻 cs

CogGen: Cognitive-Load-Informed Fully Unsupervised Deep Generative Modeling for Compressively Sampled MRI Reconstruction

Le papier propose CogGen, une approche de génération profonde entièrement non supervisée pour la reconstruction d'IRM échantillonnée de manière compressive qui améliore la fidélité et la convergence en régulant la charge cognitive via un apprentissage par curriculum qui hiérarchise progressivement la difficulté des données d'entraînement.

Qingyong Zhu, Yumin Tan, Xiang Gu + 1 more2026-03-06💻 cs

AMV-L: Lifecycle-Managed Agent Memory for Tail-Latency Control in Long-Running LLM Systems

Ce papier présente AMV-L, un cadre de gestion de mémoire pour agents LLM à longue durée de vie qui remplace les politiques de rétention basées sur l'âge par une gestion de cycle de vie pilotée par la valeur, permettant ainsi de borner la taille de l'ensemble de travail de récupération et de réduire considérablement la latence extrême tout en maintenant la qualité des réponses.

Emmanuel Bamidele2026-03-06💻 cs