EsoLang-Bench: Evaluating Genuine Reasoning in Large Language Models via Esoteric Programming Languages

Il paper introduce EsoLang-Bench, un nuovo benchmark basato su linguaggi di programmazione esotici privi di incentivi economici per l'addestramento, che rivela come i modelli linguistici di frontiera, nonostante le alte prestazioni sui test standard, falliscano nel dimostrare un ragionamento genuino quando devono apprendere nuovi linguaggi tramite documentazione e feedback.

Aman Sharma, Paras Chopra2026-03-11🤖 cs.AI

On Catastrophic Forgetting in Low-Rank Decomposition-Based Parameter-Efficient Fine-Tuning

Questo studio empirico dimostra che il fenomeno della "catastrophic forgetting" nel fine-tuning efficiente basato su decomposizione a rango basso è fortemente influenzato dalla geometria e dalla parametrizzazione dello spazio di aggiornamento, evidenziando come le decomposizioni tensoriali e le parametrizzazioni allineate strutturalmente offrano soluzioni superiori rispetto ai metodi tradizionali per preservare le conoscenze pregresse nell'apprendimento sequenziale.

Muhammad Ahmad, Jingjing Zheng, Yankai Cao2026-03-11🤖 cs.LG

ActiveUltraFeedback: Efficient Preference Data Generation using Active Learning

Il paper introduce ActiveUltraFeedback, una pipeline di apprendimento attivo modulare che riduce significativamente i costi di annotazione dei dati di preferenza per l'allineamento dei modelli linguistici, ottenendo prestazioni superiori o paragonabili a quelle dei metodi statici con solo un sesto dei dati necessari.

Davit Melikidze, Marian Schneider, Jessica Lam, Martin Wertich, Ido Hakimi, Barna Pásztor, Andreas Krause2026-03-11🤖 cs.AI

Mousse: Rectifying the Geometry of Muon with Curvature-Aware Preconditioning

Il paper propone Mousse, un nuovo ottimizzatore che combina la stabilità spettrale di Muon con l'adattabilità geometrica di Shampoo tramite una precondizionamento consapevole della curvatura, ottenendo una riduzione del 12% dei passi di addestramento per modelli linguistici senza sovraccarichi computazionali significativi.

Yechen Zhang, Shuhao Xing, Junhao Huang, Kai Lv, Yunhua Zhou, Xipeng Qiu, Qipeng Guo, Kai Chen2026-03-11🤖 cs.AI

A Multi-Prototype-Guided Federated Knowledge Distillation Approach in AI-RAN Enabled Multi-Access Edge Computing System

Questo articolo propone un approccio di distillazione della conoscenza federata guidato da multi-prototipi (MP-FedKD) per sistemi MEC abilitati all'AI-RAN, che risolve il problema dei dati non IID evitando la perdita di informazioni tipica delle strategie a singolo prototipo attraverso l'uso di un clustering gerarchico agglomerativo condizionale, un allineamento dei prototipi e una nuova funzione di perdita.

Luyao Zou, Hayoung Oh, Chu Myaet Thwal, Apurba Adhikary, Seohyeon Hong, Zhu Han2026-03-11🤖 cs.LG

Upper Generalization Bounds for Neural Oscillators

Questo studio deriva nuovi limiti superiori di generalizzazione PAC per gli oscillatori neurali basati su equazioni differenziali ordinarie del secondo ordine, dimostrando teoricamente e validando numericamente che la regolarizzazione dei Lipschitz delle reti MLP mitiga la complessità parametrica e migliora le prestazioni nell'approssimazione di sistemi strutturali non lineari.

Zifeng Huang, Konstantin M. Zuev, Yong Xia, Michael Beer2026-03-11🤖 cs.LG

Global universality via discrete-time signatures

Il documento stabilisce teoremi di approssimazione universale globale su spazi di percorsi lineari a tratti, dimostrando che i funzionali lineari delle firme discrete sono densi rispetto alle norme LpL^p e pesate, e applica questi risultati all'approssimazione di funzionali dipendenti dal percorso, equazioni differenziali ordinarie casuali e equazioni differenziali stocastiche guidate dal moto browniano.

Mihriban Ceylan, David J. Prömel2026-03-11🤖 cs.LG

Exploiting Label-Aware Channel Scoring for Adaptive Channel Pruning in Split Learning

Il paper propone ACP-SL, uno schema di apprendimento diviso che riduce l'overhead di comunicazione comprimendo i dati intermedi tramite una potatura adattiva dei canali basata su un punteggio di importanza consapevole dell'etichetta, ottenendo al contempo una maggiore accuratezza e un numero inferiore di round di addestramento rispetto alle soluzioni esistenti.

Jialei Tan, Zheng Lin, Xiangming Cai, Ruoxi Zhu, Zihan Fang, Pingping Chen, Wei Ni2026-03-11🤖 cs.AI

Information Theoretic Bayesian Optimization over the Probability Simplex

Questo articolo presenta α\alpha-GaBO, una nuova famiglia di algoritmi di ottimizzazione bayesiana definita sul semplice di probabilità che, sfruttando la geometria dell'informazione per costruire kernel e ottimizzatori geometrici, supera le prestazioni degli approcci euclidei vincolati in applicazioni reali come miscele di componenti, classificatori e controllo robotico.

Federico Pavesi, Antonio Candelieri, Noémie Jaquier2026-03-11🤖 cs.LG

Good Reasoning Makes Good Demonstrations: Implicit Reasoning Quality Supervision via In-Context Reinforcement Learning

Il paper propone l'In-Context RLVR, un metodo che migliora l'apprendimento per rinforzo nei modelli linguistici valutando implicitamente la qualità del ragionamento attraverso il "Guadagno di Evidenza", permettendo così di dare più peso alle soluzioni corrette ma ben argomentate rispetto a quelle ottenute per caso.

Tiehua Mei, Minxuan Lv, Leiyu Pan, Zhenpeng Su, Hongru Hou, Hengrui Chen, Ao Xu, Deqing Yang2026-03-11🤖 cs.LG

A Unified Hierarchical Multi-Task Multi-Fidelity Framework for Data-Efficient Surrogate Modeling in Manufacturing

Questo articolo presenta un nuovo framework gerarchico multi-task e multi-fidelity per la modellazione surrogata basata su processi gaussiani, che integra informazioni tra compiti correlati e livelli di fedeltà variabili per migliorare l'accuratezza predittiva e la quantificazione dell'incertezza in contesti manifatturieri con dati eterogenei.

Manan Mehta, Zhiqiao Dong, Yuhang Yang, Chenhui Shao2026-03-11🤖 cs.LG