A Projection-Based ARIMA Framework for Nonlinear Dynamics in Macroeconomic and Financial Time Series: Closed-Form Estimation and Rolling-Window Inference

Questo articolo introduce il framework Galerkin-ARIMA, un'estensione proiettiva dei modelli ARIMA classici che utilizza espansioni di basi di Galerkin per catturare dinamiche non lineari, offrendo una stima a forma chiusa, risultati asintotici rigorosi e prestazioni di previsione superiori per applicazioni macroeconomiche e finanziarie.

Haojie Liu, Zihan Lin2026-03-03📈 econ

Physics-Based Machine Learning Closures and Wall Models for Hypersonic Transition-Continuum Boundary Layer Predictions

Questo lavoro presenta un framework di apprendimento automatico vincolato dalla fisica che, integrando modelli di trasporto basati su deep learning e un modello di parete fondato su distribuzioni di velocità di particelle skew-Gaussiane, migliora significativamente l'accuratezza delle previsioni degli strati limite ipersonici nel regime di transizione-continuo, dove i modelli convenzionali falliscono.

Ashish S. Nair, Narendra Singh, Marco Panesi + 2 more2026-03-03🔬 physics

Separating Ansatz Discovery from Deployment on Larger Problems: Reinforcement Learning for Modular Circuit Design

Questo lavoro propone un approccio che separa la scoperta di un'architettura modulare per circuiti quantistici su piccoli sistemi, utilizzando l'apprendimento per rinforzo, dalla sua successiva applicazione a problemi più complessi, dimostrando che i blocchi circuitali appresi su istanze ridotte possono essere efficacemente riutilizzati per scalare a sistemi con un maggior numero di qubit senza richiedere un addestramento diretto su scale computazionalmente proibitive.

Gloria Turati, Simone FoderÃ, Riccardo Nembrini + 2 more2026-03-03⚛️ quant-ph

Minor Embedding for Quantum Annealing with Reinforcement Learning

Questo articolo propone un approccio basato sull'Apprendimento per Rinforzo, utilizzando l'ottimizzazione della politica prossimale, per risolvere il problema computazionalmente oneroso dell'embedding minore nell'annealing quantistico, dimostrando la capacità del metodo di generare embedding validi ed efficienti su diverse topologie hardware e di scalare bene con la dimensione del problema.

Riccardo Nembrini, Maurizio Ferrari Dacrema, Paolo Cremonesi2026-03-03⚛️ quant-ph

Domain Generalization and Adaptation in Intensive Care with Anchor Regression

Questo studio presenta un'analisi su larga scala che applica la regressione con ancoraggio e introduce il "anchor boosting" per migliorare la generalizzazione dei modelli predittivi nei dati delle terapie intensive provenienti da diverse strutture, proponendo inoltre un quadro concettuale per determinare quando è più vantaggioso utilizzare dati esterni o adattarsi ai dati del dominio target.

Malte Londschien, Manuel Burger, Gunnar Rätsch + 1 more2026-03-03📊 stat

Regime-Aware Conditional Neural Processes with Multi-Criteria Decision Support for Operational Electricity Price Forecasting

Questo lavoro propone un modello ibrido che combina la rilevazione bayesiana dei regimi con i processi neurali condizionali per prevedere i prezzi dell'energia elettrica in Germania, dimostrando attraverso un'analisi multi-criterio TOPSIS che la soluzione proposta offre un equilibrio operativo superiore rispetto ai modelli tradizionali per il periodo 2021-2023.

Abhinav Das, Stephan Schlüter2026-03-03📊 stat

Next Generation Equation-Free Multiscale Modelling of Crowd Dynamics via Machine Learning

Questo lavoro propone un approccio multiscale basato sull'apprendimento automatico che, attraverso un processo di riduzione della dimensionalità e ricostruzione, apprende l'operatore di evoluzione delle dinamiche di folla in uno spazio latente per simulare con precisione e velocità il comportamento collettivo partendo da dati microscopici individuali.

Hector Vargas Alvarez, Dimitrios G. Patsatzis, Lucia Russo + 2 more2026-03-03🤖 cs.LG

Do Vision-Language Models Leak What They Learn? Adaptive Token-Weighted Model Inversion Attacks

Questo lavoro presenta il primo studio sistematico sugli attacchi di inversione del modello per i modelli visione-linguaggio, introducendo la tecnica SMI-AW che sfrutta un pesamento adattivo dei token per ricostruire con successo dati di addestramento privati, evidenziando così gravi rischi per la privacy nei modelli VLM attualmente disponibili.

Ngoc-Bao Nguyen, Sy-Tuyen Ho, Koh Jun Hao + 1 more2026-03-03🤖 cs.LG

Agnostics: Learning to Code in Any Programming Language via Reinforcement with a Universal Learning Environment

Il paper presenta Agnostics, una pipeline di post-addestramento basata sul reinforcement learning che, valutando il codice esclusivamente tramite il suo comportamento osservabile esterno, permette di insegnare efficacemente a modelli linguistici di diverse dimensioni a programmare in lingue a risorse limitate senza richiedere infrastrutture specifiche per ogni linguaggio.

Aleksander Boruch-Gruszecki, Yangtian Zi, Zixuan Wu + 4 more2026-03-03🤖 cs.LG

Semantic-Enhanced Time-Series Forecasting via Large Language Models

Il paper propone SE-LLM, un nuovo approccio che potenzia i Large Language Models per la previsione delle serie temporali integrando le caratteristiche intrinseche dei dati nel loro spazio semantico e aggiungendo un modulo plugin per modellare sia le dipendenze a lungo termine che le anomalie a breve termine, ottenendo prestazioni superiori con un ridotto consumo computazionale.

Hao Liu, Xiaoxing Zhang, Chun Yang + 1 more2026-03-03🤖 cs.LG

MOON: Generative MLLM-based Multimodal Representation Learning for E-commerce Product Understanding

Il paper presenta MOON, il primo modello generativo basato su MLLM per l'apprendimento di rappresentazioni multimodali nel commercio elettronico, che supera i limiti delle architetture discriminative esistenti attraverso un modulo MoE guidato, il rilevamento di regioni semantiche chiave e una strategia di campionamento negativo specializzata, supportato dal nuovo benchmark MBE.

Daoze Zhang, Chenghan Fu, Zhanheng Nie + 7 more2026-03-03🤖 cs.AI