Personalized Multi-Agent Average Reward TD-Learning via Joint Linear Approximation

Questo studio propone un algoritmo di apprendimento TD multi-agente personalizzato che, sfruttando una rappresentazione lineare condivisa e un'architettura federata, garantisce la convergenza e un'accelerazione lineare filtrando i segnali conflittuali in ambienti eterogenei, superando le sfide analitiche legate alla dinamica degli errori e alla mancanza di contrazione diretta nelle distanze degli spazi.

Leo Muxing Wang, Pengkun Yang, Lili Su2026-03-10🤖 cs.LG

Embedding interpretable 1\ell_1-regression into neural networks for uncovering temporal structure in cell imaging

Il paper propone un metodo ibrido che integra un modello di regressione autoregressiva vettoriale con regolarizzazione 1\ell_1 all'interno di un autoencoder convoluzionale per estrarre e interpretare dinamiche temporali sparse da dati di imaging cellulare, combinando la capacità di riduzione dimensionale delle reti neurali con l'interpretabilità statistica.

Fabian Kabus, Maren Hackenberg, Julia Hindel, Thibault Cholvin, Antje Kilias, Thomas Brox, Abhinav Valada, Marlene Bartos, Harald Binder2026-03-10🤖 cs.LG

Information Routing in Atomistic Foundation Models: How Task Alignment and Equivariance Shape Linear Disentanglement

Il paper introduce la Compositional Probe Decomposition (CPD) per dimostrare che l'allineamento tra il compito di addestramento e la proprietà target, insieme all'architettura equivariante, determina il grado di disaccoppiamento lineare tra informazioni geometriche e composizionali nei modelli fondazionali atomistici, rivelando che canali vettoriali e scalari codificano selettivamente diverse proprietà fisiche.

Joshua Steier2026-03-10🤖 cs.LG

XInsight: Integrative Stage-Consistent Psychological Counseling Support Agents for Digital Well-Being

Il paper presenta XInsight, un framework multi-agente ispirato alla consulenza psicologica che organizza il supporto digitale in un flusso di lavoro coerente con il paradigma Esplorazione-Insight-Azione, integrando agenti specializzati per la concettualizzazione dei casi, il routing terapeutico adattivo e la documentazione strutturata, e introduce XInsight-Bench per una valutazione rigorosa, migliorando significativamente l'allineamento clinico e l'interpretabilità rispetto ai sistemi esistenti.

Fei Wang, Jiangnan Yang, Junjie Chen, Yuxin Liu, Kun Li, Yanyan Wei, Dan Guo, Meng Wang2026-03-10🤖 cs.LG

Scale Dependent Data Duplication

Questo studio dimostra che la duplicazione dei dati è dipendente dalla scala, rivelando come le copie semantiche diventino sempre più dannose per i modelli di grandi dimensioni a causa di gradienti allineati e collisioni semantiche accelerate, portando a derive nelle leggi di scaling che possono essere quantificate tramite nuove formule predittive.

Joshua Kazdan, Noam Levi, Rylan Schaeffer, Jessica Chudnovsky, Abhay Puri, Bo He, Mehmet Donmez, Sanmi Koyejo, David Donoho2026-03-10🤖 cs.LG

Know When You're Wrong: Aligning Confidence with Correctness for LLM Error Detection

Questo paper introduce un metodo per allineare la confidenza degli LLM alla correttezza delle loro risposte utilizzando punteggi normalizzati basati su token di ancoraggio, dimostrando che il fine-tuning supervisionato migliora l'affidabilità rispetto ai metodi di apprendimento per rinforzo e abilitando applicazioni pratiche come la generazione aumentata da recupero adattiva.

Xie Xiaohu, Liu Xiaohu, Yao Benjamin2026-03-10🤖 cs.LG