Federated Heterogeneous Language Model Optimization for Hybrid Automatic Speech Recognition

Questo articolo propone un paradigma di "match-and-merge" con due algoritmi, GMMA e RMMA, per ottimizzare l'aggregazione di modelli linguistici eterogenei nell'ambito del riconoscimento automatico del parlato federato, dimostrando che l'approccio basato sul reinforcement learning (RMMA) supera le soluzioni esistenti in termini di accuratezza e velocità di convergenza.

Mengze Hong, Yi Gu, Di Jiang + 4 more2026-03-06💬 cs.CL

LocalSUG: Geography-Aware LLM for Query Suggestion in Local-Life Services

Il paper propone LocalSUG, un framework basato su LLM per la suggerimento di query nei servizi locali che risolve le sfide di ancoraggio geografico, bias di esposizione e latenza tramite strategie di mining consapevoli della città, un algoritmo GRPO guidato dal beam search e tecniche di accelerazione, dimostrando miglioramenti significativi nel CTR e nella riduzione delle query senza risultati tramite test online su larga scala.

Jinwen Chen, Shuai Gong, Shiwen Zhang + 7 more2026-03-06💬 cs.CL

VisionPangu: A Compact and Fine-Grained Multimodal Assistant with 1.7B Parameters

Il paper presenta VisionPangu, un assistente multimodale compatto da 1,7 miliardi di parametri che, combinando un encoder visivo InternVL, un backbone linguistico OpenPangu e un addestramento supervisionato con descrizioni dense del dataset DOCCI, migliora significativamente la generazione di didascalie dettagliate e semanticamente coerenti senza richiedere architetture su larga scala.

Jiaxin Fan, Wenpo Song2026-03-06💬 cs.CL

Mixture of Universal Experts: Scaling Virtual Width via Depth-Width Transformation

Il paper propone MOUE, un'architettura Mixture-of-Experts generalizzata che introduce la "larghezza virtuale" riutilizzando esperti universali tra i livelli per superare i limiti di scalabilità, risolvendo le sfide di routing e bilanciamento del carico attraverso una topologia rotazionale sfalsata e meccanismi di correzione specifici, ottenendo così prestazioni superiori rispetto ai modelli MoE tradizionali.

Yilong Chen, Naibin Gu, Junyuan Shang + 8 more2026-03-06🤖 cs.AI

VRM: Teaching Reward Models to Understand Authentic Human Preferences

Il paper propone VRM (Variational Reward Modeling), un nuovo framework che supera i limiti dei modelli di ricompensa tradizionali insegnando loro a simulare il processo umano di valutazione attraverso l'inferenza di variabili latenti che combinano pesi degli obiettivi e caratteristiche semantiche, ottenendo così una migliore generalizzazione e una cattura più fedele delle preferenze autentiche.

Biao Liu, Ning Xu, Junming Yang + 2 more2026-03-06💬 cs.CL

ThaiSafetyBench: Assessing Language Model Safety in Thai Cultural Contexts

Questo lavoro introduce ThaiSafetyBench, un benchmark open-source di 1.954 prompt dannosi in lingua thai che evidenzia come i modelli linguistici siano più vulnerabili agli attacchi radicati nelle specificità culturali thailandesi rispetto a quelli generici, offrendo inoltre un classificatore addestrato e una leaderboard per valutare e migliorare la sicurezza dei modelli in questo contesto.

Trapoom Ukarapol, Nut Chukamphaeng, Kunat Pipatanakul + 1 more2026-03-06💬 cs.CL