Unmixing microinfrared spectroscopic images of cross-sections of historical oil paintings

Questo articolo presenta un autoencoder CNN non supervisionato, dotato di una funzione di perdita basata sulla distanza angolare spettrale ponderata (WSAD), per l'analisi non distruttiva e l'identificazione automatica dei componenti nei campioni stratificati di dipinti storici, come dimostrato su una sezione trasversale del Polittico di Gand.

Shivam Pande, Nicolas Nadisic, Francisco Mederos-Henry, Aleksandra Pizurica2026-03-10🤖 cs.LG

High-Resolution Image Reconstruction with Unsupervised Learning and Noisy Data Applied to Ion-Beam Dynamics for Particle Accelerators

Questo lavoro presenta un nuovo framework di apprendimento non supervisionato basato su filtri convoluzionali e reti neurali che, pur in assenza di dataset di addestramento e in condizioni di forte rumore, permette una ricostruzione ad alta fedeltà delle immagini del fascio e una risoluzione senza precedenti della struttura dell'alone nei diagnostici di acceleratori di particelle.

Francis Osswald (IPHC), Mohammed Chahbaoui (UNISTRA), Xinyi Liang (SU)2026-03-10🤖 cs.LG

Soft Equivariance Regularization for Invariant Self-Supervised Learning

Il paper propone la Soft Equivariance Regularization (SER), un metodo di regolarizzazione che migliora l'apprendimento auto-supervisionato decouplando l'invarianza e l'equivarianza su diversi livelli della rete, ottenendo così prestazioni superiori nella classificazione, nella robustezza e nel rilevamento di oggetti senza richiedere etichette di trasformazione o componenti aggiuntivi significativi.

Joohyung Lee, Changhun Kim, Hyunsu Kim, Kwanhyung Lee, Juho Lee2026-03-10🤖 cs.LG

On the Generalization Capacities of MLLMs for Spatial Intelligence

Il paper dimostra che i modelli MLLM basati solo su RGB falliscono nella generalizzazione spaziale tra diverse telecamere a causa dell'ambiguità tra proprietà fisiche e prospettiva, e propone un framework "Camera-Aware" che, integrando parametri intrinseci, augmentation dei dati e distillazione di priors geometrici, risolve tale problema garantendo un'intelligenza spaziale robusta e generalizzabile.

Gongjie Zhang, Wenhao Li, Quanhao Qian, Jiuniu Wang, Deli Zhao, Shijian Lu, Ran Xu2026-03-10🤖 cs.LG

Scaling Agentic Capabilities, Not Context: Efficient Reinforcement Finetuning for Large Toolspaces

Il paper presenta ATLAS, un framework di reinforcement finetuning che permette ai piccoli modelli linguistici di operare efficacemente in vasti ecosistemi di strumenti, trasformando il controllo del contesto e l'esecuzione in decisioni apprese e utilizzando una ricompensa basata su rubriche per superare i limiti delle risorse e avvicinarsi alle prestazioni dei modelli frontier.

Karan Gupta, Pranav Vajreshwari, Yash Pandya, Raghav Magazine, Akshay Nambi, Ahmed Awadallah2026-03-10🤖 cs.LG

From Statistical Fidelity to Clinical Consistency: Scalable Generation and Auditing of Synthetic Patient Trajectories

Questo studio presenta una pipeline integrata che combina generazione ad alta fedeltà e audit automatizzato tramite modelli linguistici per produrre tracciati sintetici di pazienti clinicamente coerenti e privi di rischi per la privacy, migliorando le prestazioni dei modelli downstream rispetto ai dati reali.

Guanglin Zhou, Armin Catic, Motahare Shabestari, Matthew Young, Chaiquan Li, Katrina Poppe, Sebastiano Barbieri2026-03-10🤖 cs.LG

Regression Models Meet Foundation Models: A Hybrid-AI Approach to Practical Electricity Price Forecasting

Il paper propone FutureBoosting, un approccio ibrido che potenzia i modelli di regressione per la previsione dei prezzi elettrici integrandoli con caratteristiche predette da modelli fondazione temporali, ottenendo così una riduzione dell'errore superiore al 30% rispetto agli stati dell'arte.

Yunzhong Qiu, Binzhu Li, Hao Wei, Shenglin Weng, Chen Wang, Zhongyi Pei, Mingsheng Long, Jianmin Wang2026-03-10🤖 cs.LG

Safe Transformer: An Explicit Safety Bit For Interpretable And Controllable Alignment

Il paper propone "Safe Transformer", un approccio modulare che inserisce un bit di sicurezza esplicito e interpretabile all'interno dei modelli linguistici pre-addestrati per garantire un allineamento controllabile e trasparente, ottenendo prestazioni di sicurezza superiori rispetto ai metodi tradizionali con un fine-tuning leggero.

Jingyuan Feng, Andrew Gambardella, Gouki Minegishi, Takeshi Kojima, Yusuke Iwasawa, Yutaka Matsuo2026-03-10🤖 cs.LG

Don't Freeze, Don't Crash: Extending the Safe Operating Range of Neural Navigation in Dense Crowds

Questo lavoro propone un approccio di apprendimento per rinforzo che, grazie a una codifica delle osservazioni invariante alla densità e a un addestramento randomizzato, permette a un agente di navigare in folle dense con generalizzazione zero-shot, evitando sia il congelamento tipico dei metodi analitici sia i crash dei metodi basati sull'apprendimento tradizionali.

Jiefu Zhang, Yang Xu, Vaneet Aggarwal2026-03-10🤖 cs.LG