Preference Packing: Efficient Preference Optimization for Large Language Models

이 논문은 동일한 입력 프롬프트에 대한 서로 다른 응답을 사용하는 선호도 최적화 (DPO 등) 훈련 시 중복 프롬프트의 어텐션 연산과 KV 캐시 메모리 사용을 줄여 훈련 시간을 최대 37% 단축하고 기존 최적화 기법과 결합 시 3.22 배의 속도 향상을 이루는 '선호도 패킹 (Preference Packing)' 기법을 제안합니다.

Jaekyung Cho2026-03-02💬 cs.CL

Recycling Failures: Salvaging Exploration in RLVR via Fine-Grained Off-Policy Guidance

이 논문은 RLVR 환경에서 부분적으로 올바른 추론 경로를 폐기하지 않고 프로세스 보상 모델을 활용해 첫 번째 오류 단계를 정밀하게 수정함으로써 탐색 다양성을 확보하고 수학 및 일반화 추론 성능을 획기적으로 개선하는 새로운 프레임워크 'SCOPE'를 제안합니다.

Yanwei Ren, Haotian Zhang, Likang Xiao + 6 more2026-03-02💬 cs.CL

Terminology Rarity Predicts Catastrophic Failure in LLM Translation of Low-Resource Ancient Languages: Evidence from Ancient Greek

이 연구는 고대 그리스어 전문 텍스트 번역에서 LLM 의 성능이 전문 용어의 희소성에 의해 결정되며, 특히 미번역된 약학 텍스트에서 용어 빈도가 번역 실패를 강력하게 예측한다는 것을 인간 평가와 자동 지표를 통해 입증했습니다.

James L. Zainaldin, Cameron Pattison, Manuela Marai + 2 more2026-03-02💬 cs.CL

MT-PingEval: Evaluating Multi-Turn Collaboration with Private Information Games

이 논문은 비공개 정보를 공유하는 협력 게임을 통해 다중 턴 상호작용을 평가하는 'MT-PingEval'을 제안하며, 최신 언어 모델이 비대화식 기준보다 협력적 대화를 통해 성능을 향상시키지 못하고 인간보다 일관성 있는 대화와 토큰 효율성을 보여주지 못한다는 사실을 규명했습니다.

Jacob Eisenstein, Fantine Huot, Adam Fisch + 2 more2026-03-02💬 cs.CL

Uncertainty Quantification for Multimodal Large Language Models with Incoherence-adjusted Semantic Volume

이 논문은 외부 도구나 추가 학습 없이 MLLM 의 내부 모달리티 특징만을 활용하여 샘플 응답의 불일치 조정 시맨틱 볼륨을 계산함으로써 다양한 모달리티와 작업에서 기존 방법보다 우수한 불확실성 정량화 성능을 보이는 새로운 프레임워크인 UMPIRE 를 제안합니다.

Gregory Kang Ruey Lau, Hieu Dao, Nicole Kan Hui Lin + 1 more2026-03-02💬 cs.CL

Not All Attention is Needed: Parameter and Computation Efficient Transfer Learning for Multi-modal Large Language Models

이 논문은 멀티모달 대규모 언어 모델 (MLLM) 에서 불필요한 멀티헤드 어텐션을 식별하여 건너뛰는 '효율적 어텐션 스킵핑 (EAS)' 기법과 정보 전달 어댑터를 제안함으로써, 파라미터 효율성을 유지하면서 추론 속도를 획기적으로 향상시킨다는 것을 보여줍니다.

Qiong Wu, Weihao Ye, Yiyi Zhou + 2 more2026-02-27💬 cs.CL

RLSF: Fine-tuning LLMs via Symbolic Feedback

이 논문은 기호적 추론 도구가 생성한 세밀한 피드백을 활용하여 대규모 언어 모델 (LLM) 을 미세 조정하는 새로운 패러다임인 '기호 피드백을 통한 강화 학습 (RLSF)'을 제안하며, 이를 통해 기존 방법론보다 우수한 성능을 보이고 상대적으로 작은 모델로도 거대 규모의 폐쇄형 모델을 능가할 수 있음을 입증합니다.

Piyush Jha, Prithwish Jana, Pranavkrishna Suresh + 2 more2026-02-27🤖 cs.AI

Evaluating the Diversity and Quality of LLM Generated Content

이 논문은 선호도 튜닝 (RLHF 등) 을 거친 LLM 이 기존 지표로는 다양성이 낮아 보이지만 품질 기준을 충족하는 '유효 의미적 다양성' 측면에서는 SFT 나 베이스 모델보다 우수함을 증명하고, 모델 크기와 파라미터 효율성 간의 트레이드오프를 분석하여 고품질 다양성이 필요한 응용 분야에 대한 실용적 시사점을 제시합니다.

Alexander Shypula, Shuo Li, Botong Zhang + 3 more2026-02-27💬 cs.CL