MuRating: A High Quality Data Selecting Approach to Multilingual Large Language Model Pretraining

Le papier présente MuRating, un cadre évolutif qui transfère les signaux de qualité des données anglaises vers un évaluateur multilingue unique pour sélectionner des sous-ensembles de données équilibrés, améliorant ainsi significativement les performances des modèles de langage multilingues sur des tâches exigeantes en connaissances.

Zhixun Chen, Ping Guo, Wenhan Han + 10 more2026-03-06💻 cs

Eka-Eval: An Evaluation Framework for Low-Resource Multilingual Large Language Models

Le papier présente Eka-Eval, un cadre d'évaluation open-source et modulaire conçu pour évaluer de manière complète et accessible les grands modèles de langage multilingues, y compris ceux dédiés aux langues à ressources limitées, en intégrant plus de 55 benchmarks et en surpassant les solutions existantes en termes d'ergonomie et de reproductibilité.

Samridhi Raj Sinha, Rajvee Sheth, Abhishek Upperwal + 1 more2026-03-06💻 cs

Vevo2: A Unified and Controllable Framework for Speech and Singing Voice Generation

Le papier présente Vevo2, un cadre unifié et contrôlable pour la génération de voix parlée et chantée qui surmonte le manque de données annotées grâce à deux tokenizeurs audio innovants et des stratégies d'apprentissage combinées, permettant ainsi une maîtrise flexible de la prosodie, du style et du timbre pour diverses tâches de synthèse et d'édition.

Xueyao Zhang, Junan Zhang, Yuancheng Wang + 5 more2026-03-06💻 cs

New Insights into Optimal Alignment of Acoustic and Linguistic Representations for Knowledge Transfer in ASR

Cet article propose une nouvelle approche d'alignement acoustique-linguistique pour la reconnaissance automatique de la parole, modélisant la correspondance comme un problème de détection via un transport optimal déséquilibré afin de gérer les asymétries structurelles et le bruit, améliorant ainsi le transfert de connaissances et les performances du système.

Xugang Lu, Peng Shen, Hisashi Kawai2026-03-06💻 cs

Llama-Mimi: Exploring the Limits of Flattened Speech Language Modeling

L'article présente Llama-Mimi, un modèle de langage vocal qui aplatit les tokens RVQ multi-niveaux du codec Mimi en une seule séquence pour les modéliser de manière autoregressive via un simple Transformer, surpassant ainsi les architectures hiérarchiques existantes sur la plupart des tâches et obtenant les meilleurs résultats en matière de cohérence acoustique.

Issa Sugiura, Shuhei Kurita, Yusuke Oda + 1 more2026-03-06💻 cs

PrefDisco: Benchmarking Proactive Personalized Reasoning

Ce papier présente PrefDisco, une nouvelle méthode d'évaluation et une métrique de préférence (PrefAlign) conçues pour mesurer la capacité des modèles de langage à adapter leur raisonnement aux préférences individuelles des utilisateurs dans des scénarios interactifs, révélant ainsi la nécessité d'un développement dédié pour une personnalisation proactive efficace.

Shuyue Stella Li, Avinandan Bose, Faeze Brahman + 4 more2026-03-06💻 cs

Detecting Hallucinations in Authentic LLM-Human Interactions

Ce papier présente AuthenHallu, le premier benchmark de détection d'hallucinations entièrement construit à partir d'interactions authentiques entre humains et LLM, révélant un taux d'hallucinations significatif (31,4 % en moyenne, atteignant 60 % dans des domaines complexes) et démontrant les limites actuelles des modèles de langage à détecter ces erreurs dans des scénarios réels.

Yujie Ren, Niklas Gruhlke, Anne Lauscher2026-03-06💻 cs

Narrow Finetuning Leaves Clearly Readable Traces in Activation Differences

Cette étude démontre que le fine-tuning sur des domaines restreints laisse des traces lisibles dans les activations des grands modèles de langage, permettant d'identifier le domaine d'entraînement et d'améliorer l'interprétabilité, tout en avertissant que ces biais, liés au surapprentissage, peuvent fausser les recherches sur la sécurité et l'alignement si l'on utilise ces modèles comme proxy pour des ajustements plus larges.

Julian Minder, Clément Dumas, Stewart Slocum + 4 more2026-03-06💻 cs