BeamPERL: Parameter-Efficient RL with Verifiable Rewards Specializes Compact LLMs for Structured Beam Mechanics Reasoning

L'étude BeamPERL démontre que l'apprentissage par renforcement avec des récompenses vérifiables améliore les performances d'un modèle de langage compact sur la mécanique des poutres, mais révèle que cette compétence repose sur l'adoption de modèles de résolution procéduraux plutôt que sur une véritable internalisation des principes physiques, limitant ainsi la généralisation face à des changements topologiques.

Tarjei Paule Hage, Markus J. Buehler2026-03-05🔬 cond-mat.mtrl-sci

Data-Aware Random Feature Kernel for Transformers

Le papier présente DARKFormer, un modèle de transformateur qui améliore l'efficacité et la stabilité de l'attention à noyau aléatoire en apprenant une géométrie de noyau alignée sur les données pour permettre un échantillonnage par importance à variance minimale, réduisant ainsi l'écart de performance avec l'attention softmax exacte, notamment lors du réglage fin de modèles préentraînés.

Amirhossein Farzam, Hossein Mobahi, Nolan Andrew Miller + 1 more2026-03-05🤖 cs.AI

Two-Stage Photovoltaic Forecasting: Separating Weather Prediction from Plant-Characteristics

Cet article propose une méthode de prévision photovoltaïque en deux étapes qui sépare la prédiction météorologique des caractéristiques de la centrale, démontrant que l'erreur de prévision augmente significativement lors de l'utilisation de modèles météorologiques plutôt que d'observations satellites, tout en identifiant des distributions statistiques adaptées pour modéliser ces erreurs.

Philipp Danner, Hermann de Meer2026-03-05🤖 cs.LG

InstMeter: An Instruction-Level Method to Predict Energy and Latency of DL Model Inference on MCUs

Ce papier présente InstMeter, une méthode au niveau des instructions exploitant les cycles d'horloge des microcontrôleurs pour prédire avec une grande précision et une faible dépendance aux données les coûts énergétiques et de latence des modèles d'apprentissage profond, surpassant ainsi les approches existantes et optimisant la recherche d'architectures neuronales.

Hao Liu, Qing Wang, Marco Zuniga2026-03-05🤖 cs.LG

Unbiased Dynamic Pruning for Efficient Group-Based Policy Optimization

Ce papier présente DPPO, un cadre d'optimisation qui accélère l'apprentissage des grands modèles de langage en élaguant dynamiquement les échantillons de GRPO tout en préservant l'estimation non biaisée du gradient grâce à un rééchantillonnage par importance, complété par une stratégie d'empaquetage dense des prompts pour maximiser l'efficacité matérielle.

Haodong Zhu, Yangyang Ren, Yanjing Li + 6 more2026-03-05🤖 cs.AI

A Multi-Agent Framework for Interpreting Multivariate Physiological Time Series

Cette étude présente Vivaldi, un système multi-agents pour l'interprétation de séries temporelles physiologiques, révélant que l'orchestration d'agents améliore la justesse des explications pour les modèles non-déductifs mais dégrade leur pertinence pour les modèles de réflexion, soulignant ainsi que la valeur de l'IA agentique en milieu critique réside dans l'externalisation sélective du calcul plutôt que dans la complexité maximale du raisonnement.

Davide Gabrielli, Paola Velardi, Stefano Faralli + 1 more2026-03-05🤖 cs.LG

Learning Hip Exoskeleton Control Policy via Predictive Neuromusculoskeletal Simulation

Cette étude présente un cadre d'apprentissage basé sur la simulation neuromusculosquelettique qui permet de développer et de déployer une politique de contrôle pour un exosquelette de hanche sans données de capture de mouvement, démontrant ainsi une réduction de l'activation musculaire en simulation et une transfert efficace vers le matériel réel sans réglage supplémentaire.

Ilseung Park, Changseob Song, Inseung Kang2026-03-05🤖 cs.LG

Architectural Proprioception in State Space Models: Thermodynamic Training Induces Anticipatory Halt Detection

Cette étude démontre que l'entraînement thermodynamique induit chez les modèles d'espace d'état (SSM) une « proprioception architecturale » permettant une détection anticipée de l'arrêt via un couplage entre l'entropie de l'état et la confiance, un phénomène absent chez les Transformers qui révèle une forme de méta-cognition computationnelle native.

Jay Noon2026-03-05🤖 cs.AI

Beyond Mixtures and Products for Ensemble Aggregation: A Likelihood Perspective on Generalized Means

Cet article propose une justification théorique fondée sur la vraisemblance pour l'agrégation d'ensembles via les moyennes généralisées, démontrant que seules les configurations d'ordre r[0,1]r \in [0,1] garantissent systématiquement une amélioration par rapport aux distributions individuelles, ce qui valide ainsi les pratiques courantes de pooling linéaire et géométrique.

Raphaël Razafindralambo, Rémy Sun, Frédéric Precioso + 2 more2026-03-05🤖 cs.LG