Succeeding at Scale: Automated Dataset Construction and Query-Side Adaptation for Multi-Tenant Search

이 논문은 대규모 멀티테넌트 검색 환경에서 자동화된 파이프라인을 통해 데이터셋을 구축하고, 문서 인덱스를 재구성하지 않고 쿼리 인코더만 효율적으로 미세 조정하는 'DevRev-Search' 프레임워크를 제안하여 확장 가능한 검색 적응을 가능하게 합니다.

Prateek Jain, Shabari S Nair, Ritesh Goru + 4 more2026-03-05🤖 cs.AI

When Silence Is Golden: Can LLMs Learn to Abstain in Temporal QA and Beyond?

이 논문은 시간 기반 질문 응답에서 불확실성을 인정하고 답변을 유보하는 능력을 학습시키기 위해 체인 오브 씽킹 (CoT) 감독과 유보 인식 보상을 활용한 강화 학습 (RL) 파이프라인을 제안하고, 이를 통해 기존 모델보다 정확도와 신뢰성을 크게 향상시켰음을 실증적으로 보여줍니다.

Xinyu Zhou, Chang Jin, Carsten Eickhoff + 2 more2026-03-05🤖 cs.AI

Rewards as Labels: Revisiting RLVR from a Classification Perspective

이 논문은 RLVR 기반 강화학습에서 발생하는 그라디언트 할당 문제를 해결하기 위해 보상을 스칼라 가중치가 아닌 분류 레이블로 재해석한 'REAL' 프레임워크를 제안하며, 이를 통해 수학 추론 벤치마크에서 GRPO 및 DAPO 등 기존 최첨단 방법들보다 뛰어난 성능과 안정성을 입증했습니다.

Zepeng Zhai, Meilin Chen, Jiaxuan Zhao + 3 more2026-03-05🤖 cs.LG

To Think or Not To Think, That is The Question for Large Reasoning Models in Theory of Mind Tasks

본 논문은 수학이나 코딩과 같은 형식적 추론에서 뛰어난 성능을 보이는 대형 추론 모델 (LRM) 이도 이론적 마음 (ToM) 과제에서는 오히려 성능이 저하되거나 선택지 매칭에 의존하는 등 기존 추론 방식만으로는 사회적 추론 능력을 확보하기 어렵다는 점을 규명하고, 이를 해결하기 위한 적응형 추론 및 단축 방지 기법을 제안합니다.

Nanxu Gong, Haotian Li, Sixun Dong + 3 more2026-03-05🤖 cs.AI

Prompt Sensitivity and Answer Consistency of Small Open-Source Large Language Models on Clinical Question Answering: Implications for Low-Resource Healthcare Deployment

이 논문은 저자원 의료 환경 배포를 위해 소규모 오픈소스 LLM 들의 프롬프트 민감도와 답변 일관성을 평가한 결과, 일관성이 높다고 해서 정확도가 보장되는 것은 아니며, 특히 역할극 프롬프트는 정확도를 저하시키고 도메인 사전학습만으로는 지시 준수가 어렵다는 점을 밝혀 Llama 3.2 가 정확성과 신뢰성 측면에서 가장 균형 잡힌 성능을 보였음을 제시합니다.

Shravani Hariprasad2026-03-05🤖 cs.AI

From Variance to Invariance: Qualitative Content Analysis for Narrative Graph Annotation

이 논문은 정성적 콘텐츠 분석 원리를 통합하여 인플레이션 서사를 방향성 비순환 그래프 (DAG) 로 주석하고, 다양한 표현 방식과 거리 척도가 주석자 간 일치도에 미치는 영향을 분석함으로써 인간 라벨 변이 하의 그래프 기반 서사 주석 품질 향상을 위한 실용적 지침을 제시합니다.

Junbo Huang, Max Weinig, Ulrich Fritsche + 1 more2026-03-05🤖 cs.AI

Detecting AI-Generated Essays in Writing Assessment: Responsible Use and Generalizability Across LLMs

이 논문은 AI 생성 에세이 탐지기의 현황과 책임 있는 사용 가이드라인을 제시하고, GRE 쓰기 프롬프트를 기반으로 한 실증 분석을 통해 특정 LLM 으로 훈련된 탐지기가 다른 LLM 에서 생성된 에세이를 얼마나 잘 일반화하여 식별하는지 평가하여 실용적 적용을 위한 지침을 제공합니다.

Jiangang Hao2026-03-05💬 cs.CL

LaTeX Compilation: Challenges in the Era of LLMs

이 논문은 LLM 시대에 TeX 의 한계를 분석하고, 더 효율적인 데이터 구조와 렌더링을 제공하는 WYSIWYG 구조화 편집기인 Mogan STEM 과 그 문서 형식 (.tmu) 이 컴파일 성능 향상과 LLM 미세조정 효율성 증대 측면에서 TeX 보다 우월함을 실험을 통해 입증하며, 향후 .tmu 형식을 활용한 대규모 LLM 학습 실험을 촉구합니다.

Tianyou Liu, Ziqiang Li, Xurui Liu + 1 more2026-03-05💬 cs.CL

Learning to Generate and Extract: A Multi-Agent Collaboration Framework For Zero-shot Document-level Event Arguments Extraction

이 논문은 생성 및 평가 에이전트 간의 '제안 - 평가 - 수정' 협업 프로세스와 강화 학습을 통해 제로샷 문서 수준 이벤트 인자 추출의 데이터 생성 품질과 추출 성능을 동시에 향상시키는 다중 에이전트 협업 프레임워크를 제안합니다.

Guangjun Zhang, Hu Zhang, Yazhou Han + 4 more2026-03-05🤖 cs.AI