ELSA: Efficient LLM-Centric Split Aggregation for Privacy-Aware Hierarchical Federated Learning over the Network Edge

Il paper presenta ELSA, un framework innovativo che integra split learning e apprendimento federato gerarchico per ottimizzare il fine-tuning distribuito di modelli linguistici su reti edge, risolvendo le sfide di risorse limitate, eterogeneità dei dati e privacy attraverso clustering intelligente, partizionamento dinamico del modello e tecniche di comunicazione efficienti e sicure.

Xiaohong Yang, Tong Xie, Minghui Liwang, Chikai Shang, Yang Lu, Zhenzhen Jiao, Liqun Fu, Seyyedali Hosseinalipour2026-03-10🤖 cs.LG

Continuous-Flow Data-Rate-Aware CNN Inference on FPGA

Questo lavoro presenta un'architettura CNN a flusso continuo e consapevole del tasso di dati per FPGA che risolve il problema del sottoutilizzo delle unità hardware nelle reti convoluzionali, garantendo un utilizzo vicino al 100% e permettendo l'implementazione di modelli complessi come MobileNet su un singolo dispositivo con elevata efficienza.

Tobias Habermann, Michael Mecik, Zhenyu Wang, César David Vera, Martin Kumm, Mario Garrido2026-03-10🤖 cs.LG

MeanCache: From Instantaneous to Average Velocity for Accelerating Flow Matching Inference

Il paper presenta MeanCache, un framework di caching senza addestramento che accelera l'inferenza del Flow Matching sostituendo la velocità istantanea con una velocità media derivata dai prodotti vettore-Jacobiano, ottenendo così un significativo aumento della velocità e una migliore qualità di generazione rispetto alle tecniche esistenti.

Huanlin Gao, Ping Chen, Fuyuan Shi, Ruijia Wu, Li YanTao, Qiang Hui, Yuren You, Ting Lu, Chao Tan, Shaoan Zhao, Zhaoxiang Liu, Fang Zhao, Kai Wang, Shiguo Lian2026-03-10🤖 cs.LG

PASS: Certified Subset Repair for Classical and Quantum Pairwise Constrained Clustering

PASS è un framework scalabile per il clustering k-means con vincoli pairwise che ottimizza un piccolo sottoinsieme di dati, risolve la fattibilità dei vincoli "cannot-link" tramite un problema di colorazione dei grafi e fornisce certificati di riparazione verificabili, permettendo così di ottenere soluzioni competitive con tempi di esecuzione ridotti anche su istanze dove i metodi tradizionali falliscono.

Pedro Chumpitaz-Flores, My Duong, Ying Mao, Kaixun Hua2026-03-10🤖 cs.LG

Model-Free Neural State Estimation in Nonlinear Dynamical Systems: Comparing Neural and Classical Filters

Questo studio presenta un confronto empirico sistematico tra modelli neurali privi di modello e filtri classici per la stima dello stato in sistemi dinamici non lineari, dimostrando che le architetture neurali, in particolare i modelli a spazio di stato, raggiungono prestazioni paragonabili ai filtri di Kalman non lineari più avanzati e superano le basi classiche più deboli, pur ottenendo un throughput di inferenza significativamente superiore senza richiedere la conoscenza delle equazioni del sistema.

Zhuochen Liu, Hans Walker, Rahul Jain2026-03-10🤖 cs.LG

TimeSliver : Symbolic-Linear Decomposition for Explainable Time Series Classification

Il paper presenta TimeSliver, un nuovo framework di deep learning per la classificazione di serie temporali che, decomponendo i dati in componenti simboliche e lineari, assegna punteggi di importanza a ogni segmento temporale garantendo sia un'elevata interpretabilità che prestazioni predittive competitive rispetto agli stati dell'arte.

Akash Pandey, Payal Mohapatra, Wei Chen, Qi Zhu, Sinan Keten2026-03-10🤖 cs.LG

Transferable Graph Condensation from the Causal Perspective

Il paper propone TGCC, un nuovo metodo di condensazione dei grafi basato sull'invarianza causale che estrae e integra caratteristiche causali invarianti nel dominio spettrale, permettendo di ottenere dataset compressi trasferibili che superano le tecniche esistenti in scenari complessi cross-task e cross-domain.

Huaming Du, Yijie Huang, Su Yao, Yiying Wang, Yueyang Zhou, Jingwen Yang, Jinshi Zhang, Han Ji, Yu Zhao, Guisong Liu, Hegui Zhang, Carl Yang, Gang Kou2026-03-10🤖 cs.LG

FlowSymm: Physics Aware, Symmetry Preserving Graph Attention for Network Flow Completion

Il paper introduce FlowSymm, una nuova architettura che combina azioni di gruppo su flussi a divergenza nulla, un encoder di attenzione su grafi e una raffinazione Tikhonov per completare i flussi di rete mancanti rispettando esattamente le leggi di conservazione locali e superando le prestazioni degli stati dell'arte su benchmark reali.

Ege Demirci, Francesco Bullo, Ananthram Swami, Ambuj Singh2026-03-10🤖 cs.LG

Mem-T: Densifying Rewards for Long-Horizon Memory Agents

Mem-T è un agente di memoria autonomo che, grazie al framework di apprendimento per rinforzo MoT-GRPO, risolve il problema della ricompensa sparsa in compiti a lungo termine densificando il feedback e ottimizzando congiuntamente la costruzione e il recupero della memoria, ottenendo prestazioni superiori e un'efficienza computazionale migliorata rispetto agli approcci esistenti.

Yanwei Yue, Boci Peng, Xuanbo Fan, Jiaxin Guo, Qiankun Li, Yan Zhang2026-03-10🤖 cs.LG

Do Schwartz Higher-Order Values Help Sentence-Level Human Value Detection? A Study of Hierarchical Gating and Calibration

Lo studio dimostra che, per il rilevamento dei valori umani a livello di frase, la struttura gerarchica dei valori di Schwartz funge più efficacemente da bias induttivo che da regola di routing rigida, mentre le migliori prestazioni si ottengono attraverso tecniche di calibrazione e ensemble piuttosto che con architetture complesse o modelli LLM compatti.

Víctor Yeste, Paolo Rosso2026-03-10🤖 cs.LG

Thickening-to-Thinning: Reward Shaping via Human-Inspired Learning Dynamics for LLM Reasoning

Il paper presenta T2T, un nuovo framework di reward shaping ispirato ai processi di apprendimento umano che migliora il ragionamento dei modelli linguistici bilanciando l'esplorazione estesa su problemi difficili con l'efficienza sui compiti già padroneggiati, ottenendo risultati superiori rispetto alle tecniche esistenti su benchmark matematici.

Wenze Lin, Zhen Yang, Xitai Jiang, Pony Ma, Gao Huang2026-03-10🤖 cs.LG

Hinge Regression Tree: A Newton Method for Oblique Regression Tree Splitting

Il paper presenta l'Hinge Regression Tree (HRT), un nuovo metodo che riformula la ricerca di split obliqui negli alberi di regressione come un problema di minimi quadrati non lineari risolvibile tramite un metodo di Newton smorzato, garantendo convergenza rapida, proprietà di approssimazione universale e prestazioni superiori rispetto alle basi di riferimento con strutture più compatte.

Hongyi Li, Han Lin, Jun Xu2026-03-10🤖 cs.LG

Radial Müntz-Szász Networks: Neural Architectures with Learnable Power Bases for Multidimensional Singularities

Il paper introduce le Radial Müntz-Szász Networks (RMN), un'architettura neurale con basi di potenza radiali apprendibili progettata per modellare con alta efficienza e precisione campi singolari multidimensionali, superando i limiti delle architetture tradizionali e riducendo drasticamente il numero di parametri necessari.

Gnankan Landry Regis N'guessan, Bum Jun Kim2026-03-10🤖 cs.LG

SDFed: Bridging Local Global Discrepancy via Subspace Refinement and Divergence Control in Federated Prompt Learning

Il paper propone SDFed, un framework di apprendimento federato eterogeneo che risolve le discrepanze locali-globali nell'adattamento dei modelli visione-linguaggio consentendo prompt locali a lunghezza variabile e introducendo tecniche di raffinamento del sottospazio e controllo della divergenza per migliorare le prestazioni in ambienti con dati e risorse disomogenei.

Yicheng Di, Wei Yuan, Tieke He, Yuan Liu, Hongzhi Yin2026-03-10🤖 cs.LG

Retrieval Pivot Attacks in Hybrid RAG: Measuring and Mitigating Amplified Leakage from Vector Seeds to Graph Expansion

Il documento dimostra che le pipeline ibride RAG, combinando ricerca vettoriale ed espansione su grafo, introducono un nuovo rischio di sicurezza chiamato "Retrieval Pivot Attacks" che permette la fuoriuscita di dati tra tenant attraverso entità condivise, ma evidenzia che tale vulnerabilità può essere eliminata efficacemente applicando controlli di autorizzazione al confine di espansione del grafo.

Scott Thornton2026-03-10🤖 cs.LG