Trainable Bitwise Soft Quantization for Input Feature Compression

Il paper propone un nuovo strato di quantizzazione addestrabile basato su funzioni sigmoidi che comprime le feature di input delle reti neurali tramite una quantizzazione soft a bit, permettendo di ridurre il trasferimento dati da dispositivi edge ai server remoti con fattori di compressione fino a 16 volte senza compromettere significativamente l'accuratezza del modello.

Karsten Schrödter, Jan Stenkamp, Nina Herrmann + 1 more2026-03-06🤖 cs.LG

Towards a data-scale independent regulariser for robust sparse identification of non-linear dynamics

Il documento presenta STCV, un nuovo algoritmo di regressione sparsa che utilizza il coefficiente di presenza come metrica statistica per garantire l'identificazione robusta e invariante alla scala dei dati delle leggi fisiche non lineari, superando i limiti dei metodi tradizionali come STLSQ e E-SINDy in presenza di rumore e normalizzazione.

Jay Raut, Daniel N. Wilke, Stephan Schmidt2026-03-06🤖 cs.LG

Early Warning of Intraoperative Adverse Events via Transformer-Driven Multi-Label Learning

Questo studio presenta IAENet, un innovativo framework di apprendimento multi-etichetta basato su Transformer che, integrando un dataset specifico (MuAE) e una nuova funzione di perdita, supera le limitazioni degli approcci esistenti nel prevedere tempestivamente eventi avversi intraoperatori multipli, migliorando significativamente la sicurezza del paziente.

Xueyao Wang, Xiuding Cai, Honglin Shang + 2 more2026-03-06🤖 cs.AI

SlideSparse: Fast and Flexible (2N-2):2N Structured Sparsity

SlideSparse è il primo sistema che sblocca l'accelerazione tramite Tensor Core di NVIDIA per i modelli con sparsità strutturata (2N2):2N(2N-2):2N su GPU commerciali, riconfigurando i pesi in finestre sovrapposte compatibili con il formato 2:4 e integrando la riorganizzazione delle attivazioni nella quantizzazione per ottenere un'accelerazione significativa senza perdita di accuratezza.

Hanyong Shao, Yingbo Hao, Ting Song + 10 more2026-03-06🤖 cs.LG

A Behaviour-Aware Federated Forecasting Framework for Distributed Stand-Alone Wind Turbines

Il paper propone un framework di apprendimento federato a due stadi che, raggruppando le turbine eoliche in base al loro comportamento storico tramite un algoritmo di inizializzazione DRS e addestrando modelli LSTM specifici per cluster, garantisce previsioni di potenza accurate e rispettose della privacy per flotte di turbine distribuite.

Bowen Li, Xiufeng Liu, Maria Sinziiana Astefanoaei2026-03-06🤖 cs.LG

Whispering to a Blackbox: Bootstrapping Frozen OCR with Visual Prompts

Questo articolo presenta il "Whisperer", un innovativo framework di prompting visivo che utilizza un curriculum di apprendimento per imitazione comportamentale di miglioramenti stocastici trovati da un modello di diffusione, permettendo di ridurre significativamente l'errore di riconoscimento dei caratteri su immagini degradate adattando gli input pixel per pixel senza modificare i pesi dei modelli OCR pre-addestrati e congelati.

Samandar Samandarov, Nazirjon Ismoiljonov, Abdullah Sattorov + 1 more2026-03-06🤖 cs.AI

Layer by layer, module by module: Choose both for optimal OOD probing of ViT

Questo studio dimostra che per l'analisi OOD dei Vision Transformer è fondamentale scegliere strategicamente sia il livello intermedio che il modulo specifico da sondare, rivelando che l'attivazione interna della rete feed-forward è ottimale in caso di forte shift distributivo, mentre l'output normalizzato dell'attenzione multi-testa lo è quando lo shift è debole.

Ambroise Odonnat, Vasilii Feofanov, Laetitia Chapel + 2 more2026-03-06🤖 cs.LG