An Approach to Simultaneous Acquisition of Real-Time MRI Video, EEG, and Surface EMG for Articulatory, Brain, and Muscle Activity During Speech Production

Il documento presenta il primo approccio per l'acquisizione simultanea di risonanza magnetica in tempo reale, EEG e EMG di superficie, integrando un pipeline di soppressione degli artefatti per studiare in modo completo i processi neurali, muscolari e articolatori alla base della produzione del parlato.

Jihwan Lee, Parsa Razmara, Kevin Huang + 16 more2026-03-06🤖 cs.AI

Can LLMs Capture Expert Uncertainty? A Comparative Analysis of Value Alignment in Ethnographic Qualitative Research

Lo studio valuta la capacità dei modelli linguistici di grandi dimensioni (LLM) di replicare l'incertezza e le interpretazioni degli esperti nell'analisi qualitativa dei valori umani secondo la teoria di Schwartz, rivelando che, sebbene le prestazioni medie siano elevate e gli ensemble migliorino i risultati, i modelli mostrano ancora discrepanze nelle strutture di incertezza e nei bias sistematici rispetto agli analisti umani.

Arina Kostina, Marios Dikaiakos, Alejandro Porcel + 1 more2026-03-06💬 cs.CL

AILS-NTUA at SemEval-2026 Task 10: Agentic LLMs for Psycholinguistic Marker Extraction and Conspiracy Endorsement Detection

Questo articolo presenta una pipeline innovativa basata su LLM agentic per la SemEval-2026 Task 10, che utilizza un design decoupled con Dynamic Discriminative Chain-of-Thought e un'architettura "Anti-Echo Chamber" per estrarre marcatori psicolinguistici e rilevare l'adesione alle teorie del complotto, ottenendo significativi miglioramenti nelle prestazioni rispetto alla baseline.

Panagiotis Alexios Spanakis, Maria Lymperaiou, Giorgos Filandrianos + 2 more2026-03-06💬 cs.CL

Federated Heterogeneous Language Model Optimization for Hybrid Automatic Speech Recognition

Questo articolo propone un paradigma di "match-and-merge" con due algoritmi, GMMA e RMMA, per ottimizzare l'aggregazione di modelli linguistici eterogenei nell'ambito del riconoscimento automatico del parlato federato, dimostrando che l'approccio basato sul reinforcement learning (RMMA) supera le soluzioni esistenti in termini di accuratezza e velocità di convergenza.

Mengze Hong, Yi Gu, Di Jiang + 4 more2026-03-06💬 cs.CL

LocalSUG: Geography-Aware LLM for Query Suggestion in Local-Life Services

Il paper propone LocalSUG, un framework basato su LLM per la suggerimento di query nei servizi locali che risolve le sfide di ancoraggio geografico, bias di esposizione e latenza tramite strategie di mining consapevoli della città, un algoritmo GRPO guidato dal beam search e tecniche di accelerazione, dimostrando miglioramenti significativi nel CTR e nella riduzione delle query senza risultati tramite test online su larga scala.

Jinwen Chen, Shuai Gong, Shiwen Zhang + 7 more2026-03-06💬 cs.CL

VisionPangu: A Compact and Fine-Grained Multimodal Assistant with 1.7B Parameters

Il paper presenta VisionPangu, un assistente multimodale compatto da 1,7 miliardi di parametri che, combinando un encoder visivo InternVL, un backbone linguistico OpenPangu e un addestramento supervisionato con descrizioni dense del dataset DOCCI, migliora significativamente la generazione di didascalie dettagliate e semanticamente coerenti senza richiedere architetture su larga scala.

Jiaxin Fan, Wenpo Song2026-03-06💬 cs.CL

Mixture of Universal Experts: Scaling Virtual Width via Depth-Width Transformation

Il paper propone MOUE, un'architettura Mixture-of-Experts generalizzata che introduce la "larghezza virtuale" riutilizzando esperti universali tra i livelli per superare i limiti di scalabilità, risolvendo le sfide di routing e bilanciamento del carico attraverso una topologia rotazionale sfalsata e meccanismi di correzione specifici, ottenendo così prestazioni superiori rispetto ai modelli MoE tradizionali.

Yilong Chen, Naibin Gu, Junyuan Shang + 8 more2026-03-06🤖 cs.AI

VRM: Teaching Reward Models to Understand Authentic Human Preferences

Il paper propone VRM (Variational Reward Modeling), un nuovo framework che supera i limiti dei modelli di ricompensa tradizionali insegnando loro a simulare il processo umano di valutazione attraverso l'inferenza di variabili latenti che combinano pesi degli obiettivi e caratteristiche semantiche, ottenendo così una migliore generalizzazione e una cattura più fedele delle preferenze autentiche.

Biao Liu, Ning Xu, Junming Yang + 2 more2026-03-06💬 cs.CL