Domain Generalization and Adaptation in Intensive Care with Anchor Regression

Questo studio presenta un'analisi su larga scala che applica la regressione con ancoraggio e introduce il "anchor boosting" per migliorare la generalizzazione dei modelli predittivi nei dati delle terapie intensive provenienti da diverse strutture, proponendo inoltre un quadro concettuale per determinare quando è più vantaggioso utilizzare dati esterni o adattarsi ai dati del dominio target.

Malte Londschien, Manuel Burger, Gunnar Rätsch + 1 more2026-03-03📊 stat

Regime-Aware Conditional Neural Processes with Multi-Criteria Decision Support for Operational Electricity Price Forecasting

Questo lavoro propone un modello ibrido che combina la rilevazione bayesiana dei regimi con i processi neurali condizionali per prevedere i prezzi dell'energia elettrica in Germania, dimostrando attraverso un'analisi multi-criterio TOPSIS che la soluzione proposta offre un equilibrio operativo superiore rispetto ai modelli tradizionali per il periodo 2021-2023.

Abhinav Das, Stephan Schlüter2026-03-03📊 stat

Next Generation Equation-Free Multiscale Modelling of Crowd Dynamics via Machine Learning

Questo lavoro propone un approccio multiscale basato sull'apprendimento automatico che, attraverso un processo di riduzione della dimensionalità e ricostruzione, apprende l'operatore di evoluzione delle dinamiche di folla in uno spazio latente per simulare con precisione e velocità il comportamento collettivo partendo da dati microscopici individuali.

Hector Vargas Alvarez, Dimitrios G. Patsatzis, Lucia Russo + 2 more2026-03-03🤖 cs.LG

Do Vision-Language Models Leak What They Learn? Adaptive Token-Weighted Model Inversion Attacks

Questo lavoro presenta il primo studio sistematico sugli attacchi di inversione del modello per i modelli visione-linguaggio, introducendo la tecnica SMI-AW che sfrutta un pesamento adattivo dei token per ricostruire con successo dati di addestramento privati, evidenziando così gravi rischi per la privacy nei modelli VLM attualmente disponibili.

Ngoc-Bao Nguyen, Sy-Tuyen Ho, Koh Jun Hao + 1 more2026-03-03🤖 cs.LG

Agnostics: Learning to Code in Any Programming Language via Reinforcement with a Universal Learning Environment

Il paper presenta Agnostics, una pipeline di post-addestramento basata sul reinforcement learning che, valutando il codice esclusivamente tramite il suo comportamento osservabile esterno, permette di insegnare efficacemente a modelli linguistici di diverse dimensioni a programmare in lingue a risorse limitate senza richiedere infrastrutture specifiche per ogni linguaggio.

Aleksander Boruch-Gruszecki, Yangtian Zi, Zixuan Wu + 4 more2026-03-03🤖 cs.LG

Semantic-Enhanced Time-Series Forecasting via Large Language Models

Il paper propone SE-LLM, un nuovo approccio che potenzia i Large Language Models per la previsione delle serie temporali integrando le caratteristiche intrinseche dei dati nel loro spazio semantico e aggiungendo un modulo plugin per modellare sia le dipendenze a lungo termine che le anomalie a breve termine, ottenendo prestazioni superiori con un ridotto consumo computazionale.

Hao Liu, Xiaoxing Zhang, Chun Yang + 1 more2026-03-03🤖 cs.LG

MOON: Generative MLLM-based Multimodal Representation Learning for E-commerce Product Understanding

Il paper presenta MOON, il primo modello generativo basato su MLLM per l'apprendimento di rappresentazioni multimodali nel commercio elettronico, che supera i limiti delle architetture discriminative esistenti attraverso un modulo MoE guidato, il rilevamento di regioni semantiche chiave e una strategia di campionamento negativo specializzata, supportato dal nuovo benchmark MBE.

Daoze Zhang, Chenghan Fu, Zhanheng Nie + 7 more2026-03-03🤖 cs.AI

Implementing Pearl's DO\mathcal{DO}-Calculus on Quantum Circuits: A Simpson-Type Case Study on NISQ Hardware

Questo articolo presenta un metodo per implementare il calcolo DO\mathcal{DO} di Pearl sui circuiti quantistici attraverso una "chirurgia del circuito", dimostrando sperimentalmente su hardware NISQ che tale approccio riproduce con precisione le distribuzioni interventive classiche, inclusa una variante del paradosso di Simpson, senza però garantire un vantaggio computazionale quantistico.

Pilsung Kang2026-03-03⚛️ quant-ph