Annealed Co-Generation: Disentangling Variables via Progressive Pairwise Modeling

이 논문은 고차원 확산 모델링의 계산적 부담과 데이터 불균형 문제를 해결하기 위해, 변수를 쌍으로 분해하여 학습한 후 공유 변수를 통해 결합하는 '어닐링 공동 생성 (ACG)' 프레임워크를 제안하고 유동장 완성 및 항체 생성과 같은 과학적 과제에서 그 유효성을 입증합니다.

Hantao Zhang, Jieke Wu, Mingda Xu, Xiao Hu, Yingxuan You, Pascal Fua2026-03-10🤖 cs.LG

Evo: Autoregressive-Diffusion Large Language Models with Evolving Balance

이 논문은 autoregressive 와 확산 (diffusion) 생성 방식을 통합한 'Evo'라는 새로운 대규모 언어 모델을 제안하며, 토큰의 의미적 성숙도에 따라 두 방식을 동적으로 균형 있게 조정하여 추론 속도와 생성 품질을 동시에 극대화한다는 점을 강조합니다.

Junde Wu, Minhao Hu, Jiayuan Zhu, Yuyuan Liu, Tianyi Zhang, Kang Li, Jingkun Chen, Jiazhen Pan, Min Xu, Yueming Jin2026-03-10🤖 cs.LG

Distilling and Adapting: A Topology-Aware Framework for Zero-Shot Interaction Prediction in Multiplex Biological Networks

이 논문은 맥락 인식 표현 학습과 지식 증류, 토폴로지 인식 그래프 토크나이저를 활용하여 기존 방법의 한계를 극복하고 다중 생물학적 네트워크에서 미지의 개체에 대한 제로샷 상호작용 예측 성능을 획기적으로 개선하는 새로운 프레임워크를 제안합니다.

Alana Deng, Sugitha Janarthanan, Yan Sun, Zihao Jing, Pingzhao Hu2026-03-10🤖 cs.LG

Not all tokens are needed(NAT): token efficient reinforcement learning

이 논문은 강화 학습 (RL) 의 계산 비용과 메모리 부담을 줄이기 위해 생성된 토큰의 일부만 선택하여 학습하는 'NAT'프레임워크를 제안하며, 이를 통해 전체 토큰을 사용하는 것과 동등한 성능을 유지하면서 GPU 메모리 및 학습 시간을 크게 절감할 수 있음을 입증합니다.

Hejian Sang, Yuanda Xu, Zhengze Zhou, Ran He, Zhipeng Wang2026-03-10🤖 cs.LG

GraphSkill: Documentation-Guided Hierarchical Retrieval-Augmented Coding for Complex Graph Reasoning

이 논문은 기술 문서의 계층적 구조를 활용한 계층적 검색과 자동 생성 테스트 케이스를 통한 자기 디버깅 에이전트를 도입하여 복잡한 그래프 추론 작업의 정확도를 높이고 추론 비용을 줄이는 'GraphSkill' 프레임워크와 새로운 평가 데이터셋을 제안합니다.

Fali Wang, Chenglin Weng, Xianren Zhang, Siyuan Hong, Hui Liu, Suhang Wang2026-03-10🤖 cs.LG

Reward Under Attack: Analyzing the Robustness and Hackability of Process Reward Models

이 논문은 최신 프로세스 보상 모델 (PRM) 이 추론 검증자보다는 유창성 탐지기로 작동하여 적대적 공격에 취약하다는 점을 드러내고, 이를 진단하기 위한 3 단계 프레임워크와 평가 도구인 PRM-BiasBench 를 제안합니다.

Rishabh Tiwari, Aditya Tomar, Udbhav Bamba, Monishwaran Maheswaran, Heng Yang, Michael W. Mahoney, Kurt Keutzer, Amir Gholami2026-03-10🤖 cs.LG

From ARIMA to Attention: Power Load Forecasting Using Temporal Deep Learning

이 논문은 PJM 전력 소비 데이터를 활용하여 ARIMA, LSTM, BiLSTM, Transformer 모델을 비교 평가한 결과, 자기 주의 메커니즘을 기반으로 한 Transformer 모델이 3.8% 의 MAPE 로 가장 높은 정확도와 강건성을 보여 전력 부하 예측에 있어 딥러닝 기반 어텐션 아키텍처의 우수성을 입증했습니다.

Suhasnadh Reddy Veluru, Sai Teja Erukude, Viswa Chaitanya Marella2026-03-10🤖 cs.LG

T-REX: Transformer-Based Category Sequence Generation for Grocery Basket Recommendation

이 논문은 온라인 장바구니 추천의 고유한 도전을 해결하기 위해 짧은 기간의 장바구니 의존성과 장기적인 사용자 선호도를 모두 학습하여 차원을 축소하면서도 추천 품질을 유지하는 새로운 트랜스포머 아키텍처인 T-REX 를 제안하고, 기존 모델보다 향상된 성능을 입증했습니다.

Soroush Mokhtari, Muhammad Tayyab Asif, Sergiy Zubatiy2026-03-10🤖 cs.LG

SmartBench: Evaluating LLMs in Smart Homes with Anomalous Device States and Behavioral Contexts

이 논문은 스마트 홈 환경의 비정상적인 상태와 행동 맥락을 감지하는 대형 언어 모델 (LLM) 의 능력을 평가하기 위해 고안된 최초의 벤치마크 'SmartBench'를 소개하고, 기존 최첨단 모델들이 이러한 비정상 상태 감지에서 여전히 미흡한 성능을 보임을 실험을 통해 입증했습니다.

Qingsong Zou, Zhi Yan, Zhiyao Xu, Kuofeng Gao, Jingyu Xiao, Yong Jiang2026-03-10🤖 cs.LG

HEARTS: Benchmarking LLM Reasoning on Health Time Series

이 논문은 다양한 건강 시계열 데이터와 110 가지의 과제를 포함하는 통합 벤치마크 'HEARTS'를 제안하여, 현재 대규모 언어 모델 (LLM) 이 전문 모델에 비해 건강 시계열 추론에서 심각한 한계를 보이며 단순한 휴리스틱에 의존하고 시간적 복잡도가 증가할수록 성능이 저하된다는 사실을 규명했습니다.

Sirui Li, Shuhan Xiao, Mihir Joshi, Ahmed Metwally, Daniel McDuff, Wei Wang, Yuzhe Yang2026-03-10🤖 cs.LG