Scaling Strategy, Not Compute: A Stand-Alone, Open-Source StarCraft II Benchmark for Accessible Reinforcement Learning Research

이 논문은 스타크래프트 II 의 풀 게임과 미니 게임 사이의 간극을 해소하기 위해 경제 및 건설 요소를 제거하고 전술적 기동과 전투에 집중하도록 설계된 오픈소스 중간 난이도 벤치마크 '투브리지 (Two-Bridge)'를 제안합니다.

Sourav Panda, Shreyash Kale, Tanmay Ambadkar, Abhinav Verma, Jonathan Dodge2026-03-10🤖 cs.LG

CapTrack: Multifaceted Evaluation of Forgetting in LLM Post-Training

이 논문은 LLM 후학습에서 발생하는 망각을 단순한 지식 손실이 아닌 행동과 사용자 경험을 저해하는 체계적인 모델 드리프트로 재정의하고, 이를 분석하기 위한 'CapTrack'이라는 능력 중심 평가 프레임워크를 제안하여 다양한 후학습 알고리즘과 모델에 대한 대규모 실증 연구를 수행했습니다.

Lukas Thede, Stefan Winzeck, Zeynep Akata, Jonathan Richard Schwarz2026-03-10🤖 cs.LG

Consensus is Not Verification: Why Crowd Wisdom Strategies Fail for LLM Truthfulness

이 논문은 수학이나 코드와 같은 검증 가능한 영역에서는 추론 계산량을 늘려 성능을 향상시킬 수 있지만, 사실성 검증이 어려운 영역에서는 모델 간 오류가 강하게 상관되어 있어 다수결 전략이나 신뢰도 기반 가중치가 오히려 공유된 오개념을 강화할 뿐 진실성을 개선하지 못함을 보여줍니다.

Yegor Denisov-Blanch, Joshua Kazdan, Jessica Chudnovsky, Rylan Schaeffer, Sheng Guan, Soji Adeshina, Sanmi Koyejo2026-03-10🤖 cs.LG

Annealed Co-Generation: Disentangling Variables via Progressive Pairwise Modeling

이 논문은 고차원 확산 모델링의 계산적 부담과 데이터 불균형 문제를 해결하기 위해, 변수를 쌍으로 분해하여 학습한 후 공유 변수를 통해 결합하는 '어닐링 공동 생성 (ACG)' 프레임워크를 제안하고 유동장 완성 및 항체 생성과 같은 과학적 과제에서 그 유효성을 입증합니다.

Hantao Zhang, Jieke Wu, Mingda Xu, Xiao Hu, Yingxuan You, Pascal Fua2026-03-10🤖 cs.LG

Evo: Autoregressive-Diffusion Large Language Models with Evolving Balance

이 논문은 autoregressive 와 확산 (diffusion) 생성 방식을 통합한 'Evo'라는 새로운 대규모 언어 모델을 제안하며, 토큰의 의미적 성숙도에 따라 두 방식을 동적으로 균형 있게 조정하여 추론 속도와 생성 품질을 동시에 극대화한다는 점을 강조합니다.

Junde Wu, Minhao Hu, Jiayuan Zhu, Yuyuan Liu, Tianyi Zhang, Kang Li, Jingkun Chen, Jiazhen Pan, Min Xu, Yueming Jin2026-03-10🤖 cs.LG

Distilling and Adapting: A Topology-Aware Framework for Zero-Shot Interaction Prediction in Multiplex Biological Networks

이 논문은 맥락 인식 표현 학습과 지식 증류, 토폴로지 인식 그래프 토크나이저를 활용하여 기존 방법의 한계를 극복하고 다중 생물학적 네트워크에서 미지의 개체에 대한 제로샷 상호작용 예측 성능을 획기적으로 개선하는 새로운 프레임워크를 제안합니다.

Alana Deng, Sugitha Janarthanan, Yan Sun, Zihao Jing, Pingzhao Hu2026-03-10🤖 cs.LG

Not all tokens are needed(NAT): token efficient reinforcement learning

이 논문은 강화 학습 (RL) 의 계산 비용과 메모리 부담을 줄이기 위해 생성된 토큰의 일부만 선택하여 학습하는 'NAT'프레임워크를 제안하며, 이를 통해 전체 토큰을 사용하는 것과 동등한 성능을 유지하면서 GPU 메모리 및 학습 시간을 크게 절감할 수 있음을 입증합니다.

Hejian Sang, Yuanda Xu, Zhengze Zhou, Ran He, Zhipeng Wang2026-03-10🤖 cs.LG

GraphSkill: Documentation-Guided Hierarchical Retrieval-Augmented Coding for Complex Graph Reasoning

이 논문은 기술 문서의 계층적 구조를 활용한 계층적 검색과 자동 생성 테스트 케이스를 통한 자기 디버깅 에이전트를 도입하여 복잡한 그래프 추론 작업의 정확도를 높이고 추론 비용을 줄이는 'GraphSkill' 프레임워크와 새로운 평가 데이터셋을 제안합니다.

Fali Wang, Chenglin Weng, Xianren Zhang, Siyuan Hong, Hui Liu, Suhang Wang2026-03-10🤖 cs.LG

Reward Under Attack: Analyzing the Robustness and Hackability of Process Reward Models

이 논문은 최신 프로세스 보상 모델 (PRM) 이 추론 검증자보다는 유창성 탐지기로 작동하여 적대적 공격에 취약하다는 점을 드러내고, 이를 진단하기 위한 3 단계 프레임워크와 평가 도구인 PRM-BiasBench 를 제안합니다.

Rishabh Tiwari, Aditya Tomar, Udbhav Bamba, Monishwaran Maheswaran, Heng Yang, Michael W. Mahoney, Kurt Keutzer, Amir Gholami2026-03-10🤖 cs.LG

From ARIMA to Attention: Power Load Forecasting Using Temporal Deep Learning

이 논문은 PJM 전력 소비 데이터를 활용하여 ARIMA, LSTM, BiLSTM, Transformer 모델을 비교 평가한 결과, 자기 주의 메커니즘을 기반으로 한 Transformer 모델이 3.8% 의 MAPE 로 가장 높은 정확도와 강건성을 보여 전력 부하 예측에 있어 딥러닝 기반 어텐션 아키텍처의 우수성을 입증했습니다.

Suhasnadh Reddy Veluru, Sai Teja Erukude, Viswa Chaitanya Marella2026-03-10🤖 cs.LG

T-REX: Transformer-Based Category Sequence Generation for Grocery Basket Recommendation

이 논문은 온라인 장바구니 추천의 고유한 도전을 해결하기 위해 짧은 기간의 장바구니 의존성과 장기적인 사용자 선호도를 모두 학습하여 차원을 축소하면서도 추천 품질을 유지하는 새로운 트랜스포머 아키텍처인 T-REX 를 제안하고, 기존 모델보다 향상된 성능을 입증했습니다.

Soroush Mokhtari, Muhammad Tayyab Asif, Sergiy Zubatiy2026-03-10🤖 cs.LG