Precision Proactivity: Measuring Cognitive Load in Real-World AI-Assisted Work

이 연구는 금융 전문가를 대상으로 한 실험을 통해 AI 가 생성한 콘텐츠가 작업 품질에 긍정적 영향을 미치지만, 특히 불필요한 인지 부하 (extraneous load) 가 성과에 가장 큰 부정적 영향을 미치며, 이는 모델이 주도하는 작업 전환과 관련이 깊고 전문성 수준에 따라 그 효과가 조절됨을 밝혔습니다.

Brandon Lepine, Juho Kim, Pamela Mishkin, Matthew Beane2026-03-10💻 cs

Ready2Unlearn: A Learning-Time Approach for Preparing Models with Future Unlearning Readiness

이 논문은 기존에 배포 단계에서 사후적으로 수행되던 기계적 망각을 학습 단계에서 사전에 준비하는 'Ready2Unlearn'이라는 새로운 최적화 접근법을 제안하며, 메타학습 원리를 활용하여 향후 데이터 삭제 요청에 효율적이고 원칙적으로 대응할 수 있는 모델을 구축하는 방법을 제시합니다.

Hanyu Duan, Yi Yang, Ahmed Abbasi, Kar Yan Tam2026-03-10🤖 cs.LG

MAS-ZERO: Designing Multi-Agent Systems with Zero Supervision

이 논문은 검증 세트 없이도 메타 피드백을 통해 각 문제实例에 맞춰 에이전트 구성을 동적으로 설계, 비판 및 정제할 수 있는 최초의 자기 진화 추론 시간 프레임워크인 MAS-ZERO 를 제안하며, 다양한 벤치마크에서 기존 수동 및 자동 다중 에이전트 시스템보다 뛰어난 성능을 입증합니다.

Zixuan Ke, Austin Xu, Yifei Ming, Xuan-Phi Nguyen, Ryan Chin, Caiming Xiong, Shafiq Joty2026-03-10🤖 cs.LG

The Cell Must Go On: Agar.io for Continual Reinforcement Learning

이 논문은 비에피소드적이고 역동적인 'Agar.io'를 기반으로 한 새로운 연구 플랫폼 'AgarCL'을 소개하며, 이를 통해 기존 강화학습 알고리즘과 지속적 학습 방법들의 성능을 평가하고 지속적 강화학습이 안정성 - 가소성 딜레마를 넘어선 더 복잡한 과제를 안고 있음을 시사합니다.

Mohamed A. Mohamed, Kateryna Nekhomiazh, Vedant Vyas, Marcos M. Jose, Andrew Patterson, Marlos C. Machado2026-03-10🤖 cs.LG

Maximum Principle of Optimal Probability Density Control

이 논문은 대규모 다중 에이전트 제어 문제를 해결하기 위해 확률 분포 공간에서 최적 제어에 대한 최대 원리와 해밀턴-자코비-벨만 방정식을 rigorously 유도하고, 이를 기반으로 심층 신경망을 활용한 확장 가능한 수치 알고리즘을 제안하여 도메인 장애물 및 에이전트 간 상호작용이 포함된 다양한 예제에서 그 유효성을 입증합니다.

Nathan Gaby, Xiaojing Ye2026-03-10🤖 cs.LG

Representing local protein environments with machine learning force fields

이 논문은 원자 기반 기초 모델 (AFM) 의 중간 특징을 활용하여 단백질의 국소 환경을 효과적으로 표현하는 새로운 방식을 제안하고, 이를 통해 국소 구조와 화학적 특성을 포착하는 동시에 NMR 화학 이동 예측에서 최첨단 정확도를 달성하는 물리 기반 예측기를 개발했음을 보여줍니다.

Meital Bojan, Sanketh Vedula, Advaith Maddipatla, Nadav Bojan Sellam, Anar Rzayev, Federico Napoli, Paul Schanda, Alex M. Bronstein2026-03-10💻 cs

MMTU: A Massive Multi-Task Table Understanding and Reasoning Benchmark

이 논문은 전문가 수준의 테이블 이해, 추론, 조작 능력을 포괄적으로 평가하기 위해 25 가지 실제 태스크와 28,000 개 이상의 질문으로 구성된 대규모 벤치마크인 MMTU 를 소개하고, 최신 선두 모델들조차 이 작업에서 상당한 개선의 여지가 있음을 보여줍니다.

Junjie Xing, Yeye He, Mengyu Zhou, Haoyu Dong, Shi Han, Lingjiao Chen, Dongmei Zhang, Surajit Chaudhuri, H. V. Jagadish2026-03-10🤖 cs.LG

Context Matters! Relaxing Goals with LLMs for Feasible 3D Scene Planning

이 논문은 노이즈가 있는 3D 환경에서 고전적 계획과 LLM 을 융합하여 목표의 실현 가능성을 점진적으로 완화하는 'ContextMatters' 프레임워크를 제안함으로써, 기존 방법론 대비 성공률을 52.45% 향상시키고 실제 로봇 (TIAGo) 에 적용 가능한 효율적인 3D 장면 계획을 가능하게 합니다.

Emanuele Musumeci, Michele Brienza, Francesco Argenziano, Abdel Hakim Drid, Vincenzo Suriani, Daniele Nardi, Domenico D. Bloisi2026-03-10💻 cs

Adaptive Batch-Wise Sample Scheduling for Direct Preference Optimization

이 논문은 DPO(직접 선호도 최적화) 과정 중 모델의 학습 상태 변화에 따라 배치 단위로 샘플을 동적으로 선택하는 'SamS' 알고리즘을 제안하여, 핵심 알고리즘을 수정하지 않고도 추가적인 계산 비용 없이 LLM 의 정렬 성능을 크게 향상시키는 새로운 방향을 제시합니다.

Zixuan Huang, Yikun Ban, Lean Fu, Xiaojie Li, Zhongxiang Dai, Jianxin Li, Deqing Wang2026-03-10🤖 cs.LG

A Simple "Motivation" Can Enhance Reinforcement Finetuning of Large Reasoning Models

이 논문은 보상 함수를 프롬프트에 명시하여 모델이 최적화 목표를 인지하도록 하는 '동기 부여 강화 미세 조정 (MeRF)' 방법을 제안함으로써, 기존 검증 가능 보상을 활용한 강화 학습의 비효율성을 극복하고 대형 추론 모델의 성능을 크게 향상시킨다고 설명합니다.

Junjie Zhang, Guozheng Ma, Shunyu Liu, Haoyu Wang, Jiaxing Huang, Ting-En Lin, Fei Huang, Yongbin Li, Dacheng Tao2026-03-10💬 cs.CL

SUBARU: A Practical Approach to Power Saving in Hearables Using SUB-Nyquist Audio Resolution Upsampling

이 논문은 저전력 청각 기기 (Hearables) 에서 아날로그 - 디지털 변환기의 샘플링 주파수와 비트 해상도를 의도적으로 낮추어 전력 소모를 3.31 배 감소시키면서도, 서브-나이퀴스트 샘플링 신호를 광대역으로 복원하는 SUBARU 기법을 통해 실시간 음성 향상 성능을 유지하는 실용적인 접근법을 제안합니다.

Tarikul Islam Tamiti, Sajid Fardin Dipto, Luke Benjamin Baja-Ricketts, David C Vergano, Anomadarshi Barua2026-03-10💻 cs

LD-RPS: Zero-Shot Unified Image Restoration via Latent Diffusion Recurrent Posterior Sampling

이 논문은 사전 훈련된 잠재 확산 모델과 다중 모달 이해 모델을 활용하여 데이터셋 없이도 다양한 저해상도 이미지 복원 작업을 통합적으로 수행하는 새로운 제로샷 방법인 LD-RPS 를 제안하고, 반복적 사후 샘플링을 통해 기존 방법들을 능가하는 성능을 입증합니다.

Huaqiu Li, Yong Wang, Tongwen Huang, Hailang Huang, Haoqian Wang, Xiangxiang Chu2026-03-10💻 cs