Scaling Agentic Capabilities, Not Context: Efficient Reinforcement Finetuning for Large Toolspaces

Il paper presenta ATLAS, un framework di reinforcement finetuning che permette ai piccoli modelli linguistici di operare efficacemente in vasti ecosistemi di strumenti, trasformando il controllo del contesto e l'esecuzione in decisioni apprese e utilizzando una ricompensa basata su rubriche per superare i limiti delle risorse e avvicinarsi alle prestazioni dei modelli frontier.

Karan Gupta, Pranav Vajreshwari, Yash Pandya, Raghav Magazine, Akshay Nambi, Ahmed Awadallah2026-03-10🤖 cs.LG

From Statistical Fidelity to Clinical Consistency: Scalable Generation and Auditing of Synthetic Patient Trajectories

Questo studio presenta una pipeline integrata che combina generazione ad alta fedeltà e audit automatizzato tramite modelli linguistici per produrre tracciati sintetici di pazienti clinicamente coerenti e privi di rischi per la privacy, migliorando le prestazioni dei modelli downstream rispetto ai dati reali.

Guanglin Zhou, Armin Catic, Motahare Shabestari, Matthew Young, Chaiquan Li, Katrina Poppe, Sebastiano Barbieri2026-03-10🤖 cs.LG

Regression Models Meet Foundation Models: A Hybrid-AI Approach to Practical Electricity Price Forecasting

Il paper propone FutureBoosting, un approccio ibrido che potenzia i modelli di regressione per la previsione dei prezzi elettrici integrandoli con caratteristiche predette da modelli fondazione temporali, ottenendo così una riduzione dell'errore superiore al 30% rispetto agli stati dell'arte.

Yunzhong Qiu, Binzhu Li, Hao Wei, Shenglin Weng, Chen Wang, Zhongyi Pei, Mingsheng Long, Jianmin Wang2026-03-10🤖 cs.LG

Safe Transformer: An Explicit Safety Bit For Interpretable And Controllable Alignment

Il paper propone "Safe Transformer", un approccio modulare che inserisce un bit di sicurezza esplicito e interpretabile all'interno dei modelli linguistici pre-addestrati per garantire un allineamento controllabile e trasparente, ottenendo prestazioni di sicurezza superiori rispetto ai metodi tradizionali con un fine-tuning leggero.

Jingyuan Feng, Andrew Gambardella, Gouki Minegishi, Takeshi Kojima, Yusuke Iwasawa, Yutaka Matsuo2026-03-10🤖 cs.LG

Don't Freeze, Don't Crash: Extending the Safe Operating Range of Neural Navigation in Dense Crowds

Questo lavoro propone un approccio di apprendimento per rinforzo che, grazie a una codifica delle osservazioni invariante alla densità e a un addestramento randomizzato, permette a un agente di navigare in folle dense con generalizzazione zero-shot, evitando sia il congelamento tipico dei metodi analitici sia i crash dei metodi basati sull'apprendimento tradizionali.

Jiefu Zhang, Yang Xu, Vaneet Aggarwal2026-03-10🤖 cs.LG

Rank-Factorized Implicit Neural Bias: Scaling Super-Resolution Transformer with FlashAttention

Il paper propone la Rank-Factorized Implicit Neural Bias (RIB), un metodo che sostituisce il bias posizionale relativo per abilitare FlashAttention nei Transformer per la super-risoluzione, permettendo di scalare le finestre di attenzione fino a 96×96 e ottenendo prestazioni superiori con tempi di addestramento e inferenza significativamente ridotti.

Dongheon Lee, Seokju Yun, Jaegyun Im, Youngmin Ro2026-03-10🤖 cs.LG

Improved Constrained Generation by Bridging Pretrained Generative Models

Il paper propone un framework di generazione vincolata che, tramite il fine-tuning di modelli generativi preaddestrati, permette di produrre campioni realistici all'interno di regioni fattibili complesse e non lineari, come quelle tipiche della guida autonoma e del controllo robotico, trovando un nuovo compromesso tra soddisfazione dei vincoli e qualità del campionamento.

Xiaoxuan Liang, Saeid Naderiparizi, Yunpeng Liu, Berend Zwartsenberg, Frank Wood2026-03-10🤖 cs.LG

Property-driven Protein Inverse Folding With Multi-Objective Preference Alignment

Il paper presenta ProtAlign, un framework di allineamento delle preferenze multi-obiettivo che ottimizza i modelli di ripiegamento inverso pre-addestrati per bilanciare la progettabilità strutturale con proprietà di sviluppabilità come solubilità e stabilità, superando i limiti degli approcci esistenti senza richiedere un'esperta conoscenza di dominio.

Xiaoyang Hou, Junqi Liu, Chence Shi, Xin Liu, Zhi Yang, Jian Tang2026-03-10🤖 cs.LG

Implementation of Quantum Implicit Neural Representation in Deterministic and Probabilistic Autoencoders for Image Reconstruction/Generation Tasks

Il paper propone un autoencoder e un variational autoencoder basati su rappresentazioni neurali implicite quantistiche (QINR) che, combinando un codificatore CNN classico con un decodificatore quantistico, migliorano la ricostruzione e la generazione di immagini con maggiore stabilità, diversità e dettaglio rispetto ai modelli generativi quantistici esistenti.

Saadet Müzehher Eren2026-03-10⚛️ quant-ph