Not All Attention is Needed: Parameter and Computation Efficient Transfer Learning for Multi-modal Large Language Models

이 논문은 멀티모달 대규모 언어 모델 (MLLM) 에서 불필요한 멀티헤드 어텐션을 식별하여 건너뛰는 '효율적 어텐션 스킵핑 (EAS)' 기법과 정보 전달 어댑터를 제안함으로써, 파라미터 효율성을 유지하면서 추론 속도를 획기적으로 향상시킨다는 것을 보여줍니다.

Qiong Wu, Weihao Ye, Yiyi Zhou + 2 more2026-02-27💬 cs.CL

RLSF: Fine-tuning LLMs via Symbolic Feedback

이 논문은 기호적 추론 도구가 생성한 세밀한 피드백을 활용하여 대규모 언어 모델 (LLM) 을 미세 조정하는 새로운 패러다임인 '기호 피드백을 통한 강화 학습 (RLSF)'을 제안하며, 이를 통해 기존 방법론보다 우수한 성능을 보이고 상대적으로 작은 모델로도 거대 규모의 폐쇄형 모델을 능가할 수 있음을 입증합니다.

Piyush Jha, Prithwish Jana, Pranavkrishna Suresh + 2 more2026-02-27🤖 cs.AI

Evaluating the Diversity and Quality of LLM Generated Content

이 논문은 선호도 튜닝 (RLHF 등) 을 거친 LLM 이 기존 지표로는 다양성이 낮아 보이지만 품질 기준을 충족하는 '유효 의미적 다양성' 측면에서는 SFT 나 베이스 모델보다 우수함을 증명하고, 모델 크기와 파라미터 효율성 간의 트레이드오프를 분석하여 고품질 다양성이 필요한 응용 분야에 대한 실용적 시사점을 제시합니다.

Alexander Shypula, Shuo Li, Botong Zhang + 3 more2026-02-27💬 cs.CL

Can LLMs Simulate Human Behavioral Variability? A Case Study in the Phonemic Fluency Task

본 연구는 34 개의 다양한 대형 언어 모델 (LLM) 을 음소 유창성 과제에 적용한 결과, 일부 모델이 인간 평균을 모방할 수는 있으나 인간의 행동적 다양성과 회상 구조를 재현하지 못해 LLM 을 인간 인지 및 행동 시뮬레이션 도구로 사용하는 데에는 근본적인 한계가 있음을 시사합니다.

Mengyang Qiu, Zoe Brisebois, Siena Sun2026-02-27💬 cs.CL