FedGIN: Federated Learning with Dynamic Global Intensity Non-linear Augmentation for Organ Segmentation using Multi-modal Images

Il paper presenta FedGIN, un framework di apprendimento federato che integra un modulo di augmentazione non lineare dell'intensità globale per migliorare la segmentazione degli organi su immagini multimodali (MRI e CT) senza condividere dati grezzi, ottenendo significativi miglioramenti nelle prestazioni rispetto ai modelli locali e centralizzati.

Sachin Dudda Nagaraju, Ashkan Moradi, Bendik Skarre Abrahamsen + 1 more2026-02-25🤖 cs.AI

Trajectory-aware Shifted State Space Models for Online Video Super-Resolution

Questo articolo presenta TS-Mamba, un nuovo metodo per la super-risoluzione video online che combina modelli di spazio di stato (SSM) a bassa complessità con una modellazione delle traiettorie temporali per aggregare informazioni spaziotemporali a lungo raggio, ottenendo prestazioni all'avanguardia e una riduzione significativa della complessità computazionale.

Qiang Zhu, Xiandong Meng, Yuxian Jiang + 5 more2026-02-25💻 cs

Decouple, Reorganize, and Fuse: A Multimodal Framework for Cancer Survival Prediction

Il paper propone DeReF, un nuovo framework multimodale per la previsione della sopravvivenza al cancro che supera i limiti delle tecniche di fusione esistenti integrando un decoupling modale, una strategia di riorganizzazione casuale delle caratteristiche e un'attenzione incrociata regionale per migliorare l'interazione informativa e la generalizzazione dei modelli esperti.

Huayi Wang, Haochao Ying, Yuyang Xu + 5 more2026-02-25💻 cs

Learning Unified Representations from Heterogeneous Data for Robust Heart Rate Modeling

Il paper propone un nuovo framework che apprende rappresentazioni unificate robuste per la previsione della frequenza cardiaca, affrontando l'eterogeneità dei dati tramite dropout casuale delle feature e apprendimento contrastivo, e validando il metodo su un nuovo dataset benchmark (PARROTAO) con risultati significativamente superiori rispetto agli stati dell'arte.

Zhengdong Huang, Zicheng Xie, Wentao Tian + 3 more2026-02-25🤖 cs.LG

On Robustness of Vision-Language-Action Model against Multi-Modal Perturbations

Questo lavoro presenta RobustVLA, un metodo che migliora la robustezza dei modelli Vision-Language-Action contro perturbazioni multi-modali attraverso l'ottimizzazione offline del rumore nelle azioni e la formulazione della robustezza come problema di bandit multi-braccio, ottenendo significativi guadagni nelle prestazioni sia in simulazione che su robot reali.

Jianing Guo, Zhenhong Wu, Chang Tu + 13 more2026-02-25🤖 cs.AI

SpecAware: A Spectral-Content Aware Foundation Model for Unifying Multi-Sensor Learning in Hyperspectral Remote Sensing Mapping

Il paper presenta SpecAware, un modello fondazionale consapevole del contenuto spettrale che unifica l'apprendimento multi-sensore per la mappatura iperspettrale tramite un'architettura basata su iperreti e un nuovo dataset di pre-addestramento su larga scala, superando le limitazioni legate all'eterogeneità dei canali spettrali tra diversi sensori.

Renjie Ji, Xue Wang, Chao Niu + 3 more2026-02-25💻 cs

Changes in Real Time: Online Scene Change Detection with Multi-View Fusion

Questo lavoro presenta il primo metodo di rilevamento dei cambiamenti scenici online, pose-agnostico e privo di etichette, che fonde più viste tramite una nuova funzione di perdita auto-supervisionata e aggiornamenti rapidi basati su 3D Gaussian Splatting, superando le prestazioni degli approcci offline esistenti con un'efficienza in tempo reale superiore a 10 FPS.

Chamuditha Jayanga Galappaththige, Jason Lai, Lloyd Windrim + 3 more2026-02-25💻 cs