High-Resolution Image Reconstruction with Unsupervised Learning and Noisy Data Applied to Ion-Beam Dynamics for Particle Accelerators

Questo lavoro presenta un nuovo framework di apprendimento non supervisionato basato su filtri convoluzionali e reti neurali che, pur in assenza di dataset di addestramento e in condizioni di forte rumore, permette una ricostruzione ad alta fedeltà delle immagini del fascio e una risoluzione senza precedenti della struttura dell'alone nei diagnostici di acceleratori di particelle.

Francis Osswald (IPHC), Mohammed Chahbaoui (UNISTRA), Xinyi Liang (SU)2026-03-10🤖 cs.LG

Soft Equivariance Regularization for Invariant Self-Supervised Learning

Il paper propone la Soft Equivariance Regularization (SER), un metodo di regolarizzazione che migliora l'apprendimento auto-supervisionato decouplando l'invarianza e l'equivarianza su diversi livelli della rete, ottenendo così prestazioni superiori nella classificazione, nella robustezza e nel rilevamento di oggetti senza richiedere etichette di trasformazione o componenti aggiuntivi significativi.

Joohyung Lee, Changhun Kim, Hyunsu Kim, Kwanhyung Lee, Juho Lee2026-03-10🤖 cs.LG

On the Generalization Capacities of MLLMs for Spatial Intelligence

Il paper dimostra che i modelli MLLM basati solo su RGB falliscono nella generalizzazione spaziale tra diverse telecamere a causa dell'ambiguità tra proprietà fisiche e prospettiva, e propone un framework "Camera-Aware" che, integrando parametri intrinseci, augmentation dei dati e distillazione di priors geometrici, risolve tale problema garantendo un'intelligenza spaziale robusta e generalizzabile.

Gongjie Zhang, Wenhao Li, Quanhao Qian, Jiuniu Wang, Deli Zhao, Shijian Lu, Ran Xu2026-03-10🤖 cs.LG

Scaling Agentic Capabilities, Not Context: Efficient Reinforcement Finetuning for Large Toolspaces

Il paper presenta ATLAS, un framework di reinforcement finetuning che permette ai piccoli modelli linguistici di operare efficacemente in vasti ecosistemi di strumenti, trasformando il controllo del contesto e l'esecuzione in decisioni apprese e utilizzando una ricompensa basata su rubriche per superare i limiti delle risorse e avvicinarsi alle prestazioni dei modelli frontier.

Karan Gupta, Pranav Vajreshwari, Yash Pandya, Raghav Magazine, Akshay Nambi, Ahmed Awadallah2026-03-10🤖 cs.LG

From Statistical Fidelity to Clinical Consistency: Scalable Generation and Auditing of Synthetic Patient Trajectories

Questo studio presenta una pipeline integrata che combina generazione ad alta fedeltà e audit automatizzato tramite modelli linguistici per produrre tracciati sintetici di pazienti clinicamente coerenti e privi di rischi per la privacy, migliorando le prestazioni dei modelli downstream rispetto ai dati reali.

Guanglin Zhou, Armin Catic, Motahare Shabestari, Matthew Young, Chaiquan Li, Katrina Poppe, Sebastiano Barbieri2026-03-10🤖 cs.LG

Regression Models Meet Foundation Models: A Hybrid-AI Approach to Practical Electricity Price Forecasting

Il paper propone FutureBoosting, un approccio ibrido che potenzia i modelli di regressione per la previsione dei prezzi elettrici integrandoli con caratteristiche predette da modelli fondazione temporali, ottenendo così una riduzione dell'errore superiore al 30% rispetto agli stati dell'arte.

Yunzhong Qiu, Binzhu Li, Hao Wei, Shenglin Weng, Chen Wang, Zhongyi Pei, Mingsheng Long, Jianmin Wang2026-03-10🤖 cs.LG

Safe Transformer: An Explicit Safety Bit For Interpretable And Controllable Alignment

Il paper propone "Safe Transformer", un approccio modulare che inserisce un bit di sicurezza esplicito e interpretabile all'interno dei modelli linguistici pre-addestrati per garantire un allineamento controllabile e trasparente, ottenendo prestazioni di sicurezza superiori rispetto ai metodi tradizionali con un fine-tuning leggero.

Jingyuan Feng, Andrew Gambardella, Gouki Minegishi, Takeshi Kojima, Yusuke Iwasawa, Yutaka Matsuo2026-03-10🤖 cs.LG

Don't Freeze, Don't Crash: Extending the Safe Operating Range of Neural Navigation in Dense Crowds

Questo lavoro propone un approccio di apprendimento per rinforzo che, grazie a una codifica delle osservazioni invariante alla densità e a un addestramento randomizzato, permette a un agente di navigare in folle dense con generalizzazione zero-shot, evitando sia il congelamento tipico dei metodi analitici sia i crash dei metodi basati sull'apprendimento tradizionali.

Jiefu Zhang, Yang Xu, Vaneet Aggarwal2026-03-10🤖 cs.LG

Rank-Factorized Implicit Neural Bias: Scaling Super-Resolution Transformer with FlashAttention

Il paper propone la Rank-Factorized Implicit Neural Bias (RIB), un metodo che sostituisce il bias posizionale relativo per abilitare FlashAttention nei Transformer per la super-risoluzione, permettendo di scalare le finestre di attenzione fino a 96×96 e ottenendo prestazioni superiori con tempi di addestramento e inferenza significativamente ridotti.

Dongheon Lee, Seokju Yun, Jaegyun Im, Youngmin Ro2026-03-10🤖 cs.LG

Improved Constrained Generation by Bridging Pretrained Generative Models

Il paper propone un framework di generazione vincolata che, tramite il fine-tuning di modelli generativi preaddestrati, permette di produrre campioni realistici all'interno di regioni fattibili complesse e non lineari, come quelle tipiche della guida autonoma e del controllo robotico, trovando un nuovo compromesso tra soddisfazione dei vincoli e qualità del campionamento.

Xiaoxuan Liang, Saeid Naderiparizi, Yunpeng Liu, Berend Zwartsenberg, Frank Wood2026-03-10🤖 cs.LG

Property-driven Protein Inverse Folding With Multi-Objective Preference Alignment

Il paper presenta ProtAlign, un framework di allineamento delle preferenze multi-obiettivo che ottimizza i modelli di ripiegamento inverso pre-addestrati per bilanciare la progettabilità strutturale con proprietà di sviluppabilità come solubilità e stabilità, superando i limiti degli approcci esistenti senza richiedere un'esperta conoscenza di dominio.

Xiaoyang Hou, Junqi Liu, Chence Shi, Xin Liu, Zhi Yang, Jian Tang2026-03-10🤖 cs.LG