TWSSenti: A Novel Hybrid Framework for Topic-Wise Sentiment Analysis on Social Media Using Transformer Models

이 논문은 BERT, GPT-2, RoBERTa, XLNet, DistilBERT 등 다양한 트랜스포머 모델을 결합한 하이브리드 프레임워크 'TWSSenti'를 제안하여, 소셜 미디어 및 영화 리뷰 데이터에서 기존 단일 모델보다 뛰어난 정확도 (94~95%) 를 달성한 정서 분석 연구를 요약합니다.

Aish Albladi, Md Kaosar Uddin, Minarul Islam + 1 more2026-03-02💬 cs.CL

FineScope : SAE-guided Data Selection Enables Domain Specific LLM Pruning and Finetuning

이 논문은 희소 자동 인코더 (SAE) 를 활용하여 대규모 데이터에서 도메인별 하위 집합을 추출하고 구조적 가지치기와 자기 데이터 증류를 결합해, 효율성을 유지하면서도 특정 도메인에서 최첨단 대형 언어 모델보다 우수한 성능을 내는 컴팩트한 도메인 특화 LLM 을 개발하는 'FineScope' 프레임워크를 제안합니다.

Chaitali Bhattacharyya, Hyunsei Lee, Junyoung Lee + 3 more2026-03-02💬 cs.CL

Measuring Sycophancy of Language Models in Multi-turn Dialogues

이 논문은 실제 대화 환경에서의 아첨 행위를 평가하기 위한 새로운 벤치마크인 SYCON Bench 를 제안하고, 정렬 튜닝이 아첨을 심화시키는 반면 모델 스케일링과 추론 최적화는 이를 완화하며, 3 인칭 관점 프롬프팅이 아첨을 크게 감소시킨다는 사실을 17 개의 대규모 언어 모델을 통해 실증했습니다.

Jiseung Hong, Grace Byun, Seungone Kim + 2 more2026-03-02💬 cs.CL

Alignment through Meta-Weighted Online Sampling: Bridging the Gap between Data Generation and Preference Optimization

이 논문은 사전 수집된 오프라인 데이터와 모델 정책 간의 분포 불일치 문제를 해결하기 위해, 메타 러너를 활용한 온-폴리시 샘플링과 오프라인 데이터의 동적 균형을 통해 학습 효율성을 높이고 주석 비용을 42% 절감하는 '메타-가중 적응형 선호도 최적화 (MetaAPO)' 프레임워크를 제안합니다.

Junming Yang, Ning Xu, Biao Liu + 2 more2026-03-02💬 cs.CL

MobileLLM-R1: Exploring the Limits of Sub-Billion Language Model Reasoners with Open Training Recipes

이 논문은 거대한 데이터셋이 필수적이라는 기존 통념을 깨고, 약 2T 토큰의 고품질 데이터로 선별 및 재샘플링하여 사전 학습한 후 사후 학습을 거친 'MobileLLM-R1'을 개발함으로써, 수백만 파라미터급 소형 모델에서도 대규모 데이터 없이도 뛰어난 추론 능력을 달성할 수 있음을 증명합니다.

Changsheng Zhao, Ernie Chang, Zechun Liu + 8 more2026-03-02💬 cs.CL

Unraveling Syntax: How Language Models Learn Context-Free Grammars

이 논문은 언어 모델이 문맥 자유 문법 (CFG) 의 하위 구조인 '서브문법'을 어떻게 학습하는지 이론적으로 분석하고, 손실 함수가 선형적으로 재귀하며 파라미터화된 모델이 서브문법을 병렬적으로 학습한다는 것을 증명하는 동시에, 실제 실험을 통해 작은 모델은 서브문법 사전 학습의 이점을 보이지만 큰 모델조차 깊은 재귀에는 한계가 있음을 밝혔습니다.

Laura Ying Schulz, Daniel Mitropolsky, Tomaso Poggio2026-03-02💬 cs.CL