SaiVLA-0: Cerebrum--Pons--Cerebellum Tripartite Architecture for Compute-Aware Vision-Language-Action

Il paper presenta SaiVLA-0, un'architettura Vision-Language-Action ispirata al cervello umano che separa le funzioni in tre moduli (Cerebro, Ponte e Cervelletto) per ottimizzare l'efficienza computazionale, la modularità e le prestazioni nel controllo robotico, dimostrando miglioramenti significativi nei tempi di addestramento e nei tassi di successo.

Xiang Shi, Wenlong Huang, Menglin Zou, Xinhai Sun2026-03-10🤖 cs.LG

TRIAGE: Type-Routed Interventions via Aleatoric-Epistemic Gated Estimation in Robotic Manipulation and Adaptive Perception -- Don't Treat All Uncertainty the Same

Il paper introduce TRIAGE, un framework che scompone l'incertezza in componenti aleatorie ed epistemiche per attivare risposte correttive specifiche nel controllo robotico e nella percezione adattiva, migliorando significativamente il successo dei compiti e l'efficienza computazionale rispetto ai metodi tradizionali che trattano l'incertezza in modo uniforme.

Divake Kumar, Sina Tayebati, Devashri Naik, Patrick Poggi, Amanda Sofie Rios, Nilesh Ahuja, Amit Ranjan Trivedi2026-03-10🤖 cs.LG

Explainable Condition Monitoring via Probabilistic Anomaly Detection Applied to Helicopter Transmissions

Il paper presenta un nuovo metodo spiegabile per il monitoraggio delle condizioni delle trasmissioni degli elicotteri, basato sulla rilevazione probabilistica delle anomalie utilizzando esclusivamente dati sani per quantificare l'incertezza e supportare decisioni in applicazioni critiche.

Aurelio Raffa Ugolini, Jessica Leoni, Valentina Breschi, Damiano Paniccia, Francesco Aldo Tucci, Luigi Capone, Mara Tanelli2026-03-10🤖 cs.LG

Mitigating Homophily Disparity in Graph Anomaly Detection: A Scalable and Adaptive Approach

Il paper presenta SAGAD, un framework scalabile e adattivo per il rilevamento di anomalie nei grafi che risolve le disparità di omofilia e i problemi di scalabilità attraverso l'uso di filtri di Chebyshev, una fusione adattiva basata sulla struttura del sottografo anomalo e una guida di perdita per le preferenze di frequenza, garantendo elevate prestazioni e complessità lineare su larga scala.

Yunhui Liu, Qizhuo Xie, Yinfeng Chen, Xudong Jin, Tao Zheng, Bin Chong, Tieke He2026-03-10🤖 cs.LG

Training event-based neural networks with exact gradients via Differentiable ODE Solving in JAX

Il paper introduce Eventax, un framework basato su JAX che risolve il compromesso tra flessibilità e precisione nell'addestramento di reti neurali basate su eventi, permettendo il calcolo di gradienti esatti per modelli neuronali complessi e arbitrari tramite la risoluzione differenziabile di equazioni differenziali ordinarie.

Lukas König, Manuel Kuhn, David Kappel, Anand Subramoney2026-03-10🤖 cs.LG

C2^2FG: Control Classifier-Free Guidance via Score Discrepancy Analysis

Il paper presenta C2^2FG, un metodo di guida senza training che ottimizza la Classifier-Free Guidance adattando dinamicamente il suo peso nel tempo tramite un'analisi teorica delle discrepanze di punteggio, migliorando così la generazione in modelli di diffusione condizionati.

Jiayang Gao, Tianyi Zheng, Jiayang Zou, Fengxiang Yang, Shice Liu, Luyao Fan, Zheyu Zhang, Hao Zhang, Jinwei Chen, Peng-Tao Jiang, Bo Li, Jia Wang2026-03-10🤖 cs.LG

Are We Winning the Wrong Game? Revisiting Evaluation Practices for Long-Term Time Series Forecasting

Questo articolo critica l'attuale regime di valutazione per la previsione delle serie temporali a lungo termine, basato esclusivamente sulla riduzione degli errori puntuali, e propone un approccio multidimensionale che integri fedeltà statistica, coerenza strutturale e rilevanza decisionale per allineare il progresso scientifico agli obiettivi reali del forecasting.

Thanapol Phungtua-eng, Yoshitaka Yamamoto2026-03-10🤖 cs.LG

Outlier-robust Autocovariance Least Square Estimation via Iteratively Reweighted Least Square

Questo articolo propone l'algoritmo ALS-IRLS, un metodo di stima delle covarianze del rumore robusto agli outlier basato su un framework a due livelli che combina la filtrazione adattiva delle innovazioni con una funzione di costo di Huber risolta tramite pesi iterativi, dimostrando una precisione superiore rispetto alle tecniche tradizionali e ai filtri di Kalman esistenti.

Jiahong Li, Fang Deng2026-03-10🤖 cs.LG

Covenant-72B: Pre-Training a 72B LLM with Trustless Peers Over-the-Internet

Il documento presenta Covenant-72B, un modello linguistico su larga scala addestrato in modo collaborativo e globale tramite partecipanti permissionless supportati da un protocollo blockchain, dimostrando che è possibile raggiungere prestazioni competitive con i modelli centralizzati pur consentendo una partecipazione aperta e decentralizzata.

Joel Lidin, Amir Sarfi, Erfan Miahi, Quentin Anthony, Shivam Chauhan, Evangelos Pappas, Benjamin Thérien, Eugene Belilovsky, Samuel Dare2026-03-10🤖 cs.LG

Is continuous CoT better suited for multi-lingual reasoning?

Lo studio dimostra che il ragionamento in uno spazio latente continuo supera il Chain-of-Thought esplicito, specialmente per le lingue a risorse limitate e in contesti zero-shot, offrendo al contempo una compressione dei passaggi di ragionamento fino a 50 volte più efficiente grazie alla maggiore invarianza linguistica delle rappresentazioni latenti.

Ali Hamza Bashir, Behzad Shomali, Markus Frey, Mehdi Ali, Rafet Sifa, David Berghaus2026-03-10🤖 cs.LG

ALOOD: Exploiting Language Representations for LiDAR-based Out-of-Distribution Object Detection

Il paper presenta ALOOD, un nuovo metodo che sfrutta le rappresentazioni linguistiche di un modello visione-linguaggio per allineare le caratteristiche LiDAR e trattare il rilevamento di oggetti fuori distribuzione come un compito di classificazione zero-shot, migliorando così la sicurezza nei sistemi di guida autonoma.

Michael Kösel, Marcel Schreiber, Michael Ulrich, Claudius Gläser, Klaus Dietmayer2026-03-10🤖 cs.LG

AutoAdapt: An Automated Domain Adaptation Framework for LLMs

Il paper presenta AutoAdapt, un framework automatizzato end-to-end che utilizza un sistema multi-agente di dibattito e un surrogato basato su LLM chiamato AutoRefine per ottimizzare l'adattamento di dominio dei modelli linguistici su larga scala, riducendo l'intervento umano e migliorando significativamente l'accuratezza rispetto alle tecniche esistenti.

Sidharth Sinha, Anson Bastos, Xuchao Zhang, Akshay Nambi, Chetan Bansal, Saravan Rajmohan2026-03-10🤖 cs.LG

SERQ: Saliency-Aware Low-Rank Error Reconstruction for LLM Quantization

Il paper propone SERQ, un metodo di ricostruzione degli errori sensibile alla salienza che utilizza una singola matrice di compensazione a basso rango per mitigare gli errori di quantizzazione nelle inferenze LLM a basso bit (W4A8 e W4A4), preservando l'efficienza computazionale e superando le prestazioni delle tecniche esistenti con una complessità di calibrazione ridotta.

Yeonsik Park, Hyeonseong Kim, Seungkyu Choi2026-03-10🤖 cs.LG

Sequential Service Region Design with Capacity-Constrained Investment and Spillover Effect

Questo studio propone un framework che integra l'analisi delle opzioni reali con un algoritmo di ottimizzazione basato su Transformer (TPPO) per ottimizzare la progettazione sequenziale delle regioni di servizio, affrontando vincoli di capacità e effetti di spillover stocastici per identificare strategie di investimento superiori in condizioni di incertezza.

Tingting Chen, Feng Chu, Jiantong Zhang2026-03-10🤖 cs.LG

Distributional Regression with Tabular Foundation Models: Evaluating Probabilistic Predictions via Proper Scoring Rules

Il paper evidenzia i limiti delle attuali metriche di benchmark per la regressione tabellare basate su foundation models, che valutano solo stime puntuali, e propone l'adozione di regole di punteggio adeguate, come il CRPS, per valutare e ottimizzare le previsioni probabilistiche, suggerendo al contempo l'uso di modelli finetunati o promptabili per gestire i diversi bias induttivi.

Jonas Landsgesell, Pascal Knoll2026-03-10🤖 cs.LG

Revisiting Gradient Staleness: Evaluating Distance Metrics for Asynchronous Federated Learning Aggregation

Questo studio estende il metodo di aggregazione adattiva AsyncFedED nell'apprendimento federale asincrono esplorando metriche di distanza alternative rispetto alla distanza euclidea per misurare la staleness dei gradienti, dimostrando che l'uso di metriche specifiche migliora la convergenza, le prestazioni e la stabilità del modello in ambienti con clienti eterogenei e dati non-IID.

Patrick Wilhelm, Odej Kao2026-03-10🤖 cs.LG

Wiener Chaos Expansion based Neural Operator for Singular Stochastic Partial Differential Equations

Questo articolo presenta un operatore neurale basato sull'espansione del caos di Wiener e modulazione lineare delle caratteristiche (WCE-FiLM-NO) che risolve con successo le equazioni differenziali stocastiche singolari, come il modello dinamico Φ24\Phi^4_2 e il più complesso Φ34\Phi^4_3, senza richiedere fattori di rinormalizzazione.

Dai Shi, Luke Thompson, Andi Han, Peiyan Hu, Junbin Gao, José Miguel Hernández-Lobato2026-03-10🤖 cs.LG