Language Agents for Hypothesis-driven Clinical Decision Making with Reinforcement Learning

Questo articolo presenta LA-CDM, un agente linguistico basato sull'apprendimento per rinforzo e supervisionato che supporta il processo decisionale clinico dinamico e iterativo attraverso una generazione di ipotesi guidata dall'incertezza, dimostrando miglioramenti nelle prestazioni diagnostiche e nell'efficienza sul dataset reale MIMIC-CDM.

David Bani-Harouni, Chantal Pellegrini, Ege Özsoy + 2 more2026-03-03💬 cs.CL

SecP-Tuning: Efficient Privacy-Preserving Prompt Tuning for Large Language Models via MPC

Il paper propone SecP-Tuning, il primo framework basato su calcolo multi-partito sicuro (MPC) che abilita un efficiente prompt tuning per i Large Language Models eliminando la necessità di calcoli crittografici nella retropropagazione e ottimizzando l'attenzione, garantendo così privacy e prestazioni elevate con riduzioni significative nei tempi di esecuzione e nell'overhead di comunicazione.

Jinglong Luo, Zhuo Zhang, Yehong Zhang + 6 more2026-03-03🤖 cs.LG

Dynamic Weight Grafting: Localizing Finetuned Factual Knowledge in Transformers

Il paper propone la "Dynamic Weight Grafting", una tecnica di analisi che grafta selettivamente pesi da un modello finetunato su uno pre-addestrato per dimostrare che le conoscenze fattoriali apprese vengono recuperate attraverso due percorsi distinti: un arricchimento del flusso residuo durante l'elaborazione dell'entità e un richiamo finale prima della generazione, localizzando questi meccanismi in specifiche componenti del modello come l'attenzione e le reti feedforward.

Todd Nief, David Reber, Sean Richardson + 1 more2026-03-03🤖 cs.LG

Iterative Distillation for Reward-Guided Fine-Tuning of Diffusion Models in Biomolecular Design

Questo lavoro propone un framework di affinamento iterativo basato sulla distillazione che permette ai modelli di diffusione di ottimizzare funzioni di ricompensa non differenziabili nel design biomolecolare, superando le limitazioni di stabilità ed efficienza dei metodi RL tradizionali attraverso una formulazione off-policy e la minimizzazione della divergenza KL.

Xingyu Su, Xiner Li, Masatoshi Uehara + 7 more2026-03-03🧬 q-bio

A Projection-Based ARIMA Framework for Nonlinear Dynamics in Macroeconomic and Financial Time Series: Closed-Form Estimation and Rolling-Window Inference

Questo articolo introduce il framework Galerkin-ARIMA, un'estensione proiettiva dei modelli ARIMA classici che utilizza espansioni di basi di Galerkin per catturare dinamiche non lineari, offrendo una stima a forma chiusa, risultati asintotici rigorosi e prestazioni di previsione superiori per applicazioni macroeconomiche e finanziarie.

Haojie Liu, Zihan Lin2026-03-03📈 econ

Physics-Based Machine Learning Closures and Wall Models for Hypersonic Transition-Continuum Boundary Layer Predictions

Questo lavoro presenta un framework di apprendimento automatico vincolato dalla fisica che, integrando modelli di trasporto basati su deep learning e un modello di parete fondato su distribuzioni di velocità di particelle skew-Gaussiane, migliora significativamente l'accuratezza delle previsioni degli strati limite ipersonici nel regime di transizione-continuo, dove i modelli convenzionali falliscono.

Ashish S. Nair, Narendra Singh, Marco Panesi + 2 more2026-03-03🔬 physics

Separating Ansatz Discovery from Deployment on Larger Problems: Reinforcement Learning for Modular Circuit Design

Questo lavoro propone un approccio che separa la scoperta di un'architettura modulare per circuiti quantistici su piccoli sistemi, utilizzando l'apprendimento per rinforzo, dalla sua successiva applicazione a problemi più complessi, dimostrando che i blocchi circuitali appresi su istanze ridotte possono essere efficacemente riutilizzati per scalare a sistemi con un maggior numero di qubit senza richiedere un addestramento diretto su scale computazionalmente proibitive.

Gloria Turati, Simone FoderÃ, Riccardo Nembrini + 2 more2026-03-03⚛️ quant-ph

Minor Embedding for Quantum Annealing with Reinforcement Learning

Questo articolo propone un approccio basato sull'Apprendimento per Rinforzo, utilizzando l'ottimizzazione della politica prossimale, per risolvere il problema computazionalmente oneroso dell'embedding minore nell'annealing quantistico, dimostrando la capacità del metodo di generare embedding validi ed efficienti su diverse topologie hardware e di scalare bene con la dimensione del problema.

Riccardo Nembrini, Maurizio Ferrari Dacrema, Paolo Cremonesi2026-03-03⚛️ quant-ph