MuRating: A High Quality Data Selecting Approach to Multilingual Large Language Model Pretraining

이 논문은 영어 데이터의 품질 신호를 17 개 언어로 확장하여 다국어 대규모 언어 모델의 사전 학습을 위한 고품질 데이터를 선별하는 확장 가능한 프레임워크인 'MuRating'을 제안하고, 이를 통해 영어 및 다국어 벤치마크에서 성능을 크게 향상시킨다는 것을 보여줍니다.

Zhixun Chen, Ping Guo, Wenhan Han + 10 more2026-03-06💻 cs

New Insights into Optimal Alignment of Acoustic and Linguistic Representations for Knowledge Transfer in ASR

이 논문은 자동 음성 인식 (ASR) 에서 지식 전이를 위해 음향 및 언어 표현 간의 정렬을 검출 문제로 재해석하고, 불균형 최적 수송을 기반으로 한 새로운 정렬 모델을 제안하여 구조적 비대칭성과 불일치를 효과적으로 처리함으로써 ASR 성능을 향상시킨다는 것을 보여줍니다.

Xugang Lu, Peng Shen, Hisashi Kawai2026-03-06💻 cs

BeyondBench: Contamination-Resistant Evaluation of Reasoning in Language Models

이 논문은 훈련 데이터 오염 문제를 해결하고 언어 모델의 진정한 추론 능력을 평가하기 위해, 10^15 개 이상의 고유한 알고리즘 문제 인스턴스를 동적으로 생성하여 검증 가능한 해답을 제공하는 'BeyondBench' 평가 프레임워크를 제안하고 다양한 모델에 대한 실험 결과를 제시합니다.

Gaurav Srivastava, Aafiya Hussain, Zhenyu Bi + 5 more2026-03-06💻 cs

PrefDisco: Benchmarking Proactive Personalized Reasoning

이 논문은 사용자 선호도를 사전에 알 수 없는 상황에서 LLM 이 능동적으로 질문을 통해 개인적 맥락을 파악하고 추론을 조정하는 '개인화 추론'의 중요성을 강조하며, 이를 평가하기 위한 새로운 벤치마크 'PrefDisco'와 정렬 지표 'PrefAlign'을 제안하고, 기존 모델들이 이러한 능력을 자연스럽게 습득하지 못한다는 사실을 규명했습니다.

Shuyue Stella Li, Avinandan Bose, Faeze Brahman + 4 more2026-03-06💻 cs

Beyond Prefixes: Graph-as-Memory Cross-Attention for Knowledge Graph Completion with Large Language Models

이 논문은 기존 접두사 기반 방식의 한계를 극복하고, 지식 그래프의 구조를 명시적인 메모리 토큰으로 인코딩하여 LLM 의 여러 레이어에 심층적으로 융합하는 '그래프-메모리 튜닝 (GMT)'을 제안함으로써 지식 그래프 완성을 위한 추론 능력을 획기적으로 향상시킵니다.

Ruitong Liu, Boxu Lin, Peize Li + 4 more2026-03-06💻 cs

Narrow Finetuning Leaves Clearly Readable Traces in Activation Differences

이 논문은 좁은 도메인 파인튜닝이 LLM 의 활성화에 해당 도메인의 특성을 명확히 반영하는 편향을 남기며, 이를 분석하면 파인튜닝된 내용을 복원하거나 모델을 이해하는 데 활용할 수 있음을 다양한 아키텍처와 규모에서 입증하고, 이러한 현상이 AI 안전 및 해석 가능성 연구에 중요한 시사점을 준다고 주장합니다.

Julian Minder, Clément Dumas, Stewart Slocum + 4 more2026-03-06💻 cs

EchoMind: An Interrelated Multi-level Benchmark for Evaluating Empathetic Speech Language Models

본 논문은 언어적 내용과 비언어적 음성 단서를 통합적으로 이해하고 공감하는 능력을 평가하기 위해 고안된 최초의 다단계 벤치마크 'EchoMind'를 제안하고, 이를 통해 최신 음성 언어 모델들이 여전히 높은 표현력의 음성 단서를 처리하고 공감적 응답을 생성하는 데 어려움을 겪고 있음을 규명합니다.

Li Zhou, Lutong Yu, You Lyu + 6 more2026-03-06💻 cs

Open Korean Historical Corpus: A Millennia-Scale Diachronic Collection of Public Domain Texts

이 논문은 7 세기부터 2025 년까지 1,300 년의 역사와 6 개 언어를 아우르는 1770 만 건의 공개 도메인 텍스트로 구성된 '오픈 한국어 역사 코퍼스 (Open Korean Historical Corpus)'를 소개하고, 이를 통해 한국어의 문자 체계 변화와 어휘적 분화 등 주요 언어학적 변천을 정량적으로 분석하여 대규모 언어 모델 학습을 위한 기초 자원을 마련했다는 점을 강조합니다.

Seyoung Song, Nawon Kim, Songeun Chae + 5 more2026-03-06💻 cs