Evo: Autoregressive-Diffusion Large Language Models with Evolving Balance

이 논문은 autoregressive 와 확산 (diffusion) 생성 방식을 통합한 'Evo'라는 새로운 대규모 언어 모델을 제안하며, 토큰의 의미적 성숙도에 따라 두 방식을 동적으로 균형 있게 조정하여 추론 속도와 생성 품질을 동시에 극대화한다는 점을 강조합니다.

Junde Wu, Minhao Hu, Jiayuan Zhu, Yuyuan Liu, Tianyi Zhang, Kang Li, Jingkun Chen, Jiazhen Pan, Min Xu, Yueming Jin2026-03-10🤖 cs.LG

Distilling and Adapting: A Topology-Aware Framework for Zero-Shot Interaction Prediction in Multiplex Biological Networks

이 논문은 맥락 인식 표현 학습과 지식 증류, 토폴로지 인식 그래프 토크나이저를 활용하여 기존 방법의 한계를 극복하고 다중 생물학적 네트워크에서 미지의 개체에 대한 제로샷 상호작용 예측 성능을 획기적으로 개선하는 새로운 프레임워크를 제안합니다.

Alana Deng, Sugitha Janarthanan, Yan Sun, Zihao Jing, Pingzhao Hu2026-03-10🤖 cs.LG

Not all tokens are needed(NAT): token efficient reinforcement learning

이 논문은 강화 학습 (RL) 의 계산 비용과 메모리 부담을 줄이기 위해 생성된 토큰의 일부만 선택하여 학습하는 'NAT'프레임워크를 제안하며, 이를 통해 전체 토큰을 사용하는 것과 동등한 성능을 유지하면서 GPU 메모리 및 학습 시간을 크게 절감할 수 있음을 입증합니다.

Hejian Sang, Yuanda Xu, Zhengze Zhou, Ran He, Zhipeng Wang2026-03-10🤖 cs.LG

GraphSkill: Documentation-Guided Hierarchical Retrieval-Augmented Coding for Complex Graph Reasoning

이 논문은 기술 문서의 계층적 구조를 활용한 계층적 검색과 자동 생성 테스트 케이스를 통한 자기 디버깅 에이전트를 도입하여 복잡한 그래프 추론 작업의 정확도를 높이고 추론 비용을 줄이는 'GraphSkill' 프레임워크와 새로운 평가 데이터셋을 제안합니다.

Fali Wang, Chenglin Weng, Xianren Zhang, Siyuan Hong, Hui Liu, Suhang Wang2026-03-10🤖 cs.LG

From ARIMA to Attention: Power Load Forecasting Using Temporal Deep Learning

이 논문은 PJM 전력 소비 데이터를 활용하여 ARIMA, LSTM, BiLSTM, Transformer 모델을 비교 평가한 결과, 자기 주의 메커니즘을 기반으로 한 Transformer 모델이 3.8% 의 MAPE 로 가장 높은 정확도와 강건성을 보여 전력 부하 예측에 있어 딥러닝 기반 어텐션 아키텍처의 우수성을 입증했습니다.

Suhasnadh Reddy Veluru, Sai Teja Erukude, Viswa Chaitanya Marella2026-03-10🤖 cs.LG

SmartBench: Evaluating LLMs in Smart Homes with Anomalous Device States and Behavioral Contexts

이 논문은 스마트 홈 환경의 비정상적인 상태와 행동 맥락을 감지하는 대형 언어 모델 (LLM) 의 능력을 평가하기 위해 고안된 최초의 벤치마크 'SmartBench'를 소개하고, 기존 최첨단 모델들이 이러한 비정상 상태 감지에서 여전히 미흡한 성능을 보임을 실험을 통해 입증했습니다.

Qingsong Zou, Zhi Yan, Zhiyao Xu, Kuofeng Gao, Jingyu Xiao, Yong Jiang2026-03-10🤖 cs.LG

HEARTS: Benchmarking LLM Reasoning on Health Time Series

이 논문은 다양한 건강 시계열 데이터와 110 가지의 과제를 포함하는 통합 벤치마크 'HEARTS'를 제안하여, 현재 대규모 언어 모델 (LLM) 이 전문 모델에 비해 건강 시계열 추론에서 심각한 한계를 보이며 단순한 휴리스틱에 의존하고 시간적 복잡도가 증가할수록 성능이 저하된다는 사실을 규명했습니다.

Sirui Li, Shuhan Xiao, Mihir Joshi, Ahmed Metwally, Daniel McDuff, Wei Wang, Yuzhe Yang2026-03-10🤖 cs.LG

Trust Aware Federated Learning for Secure Bone Healing Stage Interpretation in e-Health

이 논문은 분산 의료 센싱 환경에서 신뢰할 수 없거나 적대적인 참여자의 영향을 완화하고 모델 무결성을 보장하기 위해 적응형 신뢰 점수 관리 메커니즘을 통합한 신뢰 인식 연동 학습 프레임워크를 제안하여 골절 치유 단계 해석의 안정성과 예측 성능을 향상시키는 방법을 제시합니다.

Paul Shepherd, Tasos Dagiuklas, Bugra Alkan, Joaquim Bastos, Jonathan Rodriguez2026-03-10🤖 cs.LG

HURRI-GAN: A Novel Approach for Hurricane Bias-Correction Beyond Gauge Stations using Generative Adversarial Networks

이 논문은 물리 기반 해일 모델 (ADCIRC) 의 계산 시간 단축과 정확도 향상을 위해 시간 계열 생성적 적대 신경망 (TimeGAN) 을 활용한 새로운 AI 기반 태풍 편차 보정 방법론인 HURRI-GAN 을 제안하며, 관측소 위치를 넘어선 공간적 외삽을 통해 모델 오차를 효과적으로 보정하고 예측 성능을 입증했습니다.

Noujoud Nadera, Hadi Majed, Stefanos Giaremis, Rola El Osta, Clint Dawson, Carola Kaiser, Hartmut Kaiser2026-03-10🤖 cs.LG

Geodesic Gradient Descent: A Generic and Learning-rate-free Optimizer on Objective Function-induced Manifolds

이 논문은 목적 함수에 의해 유도된 다양체의 기하학적 구조를 정확히 반영하고 학습률 설정 없이도 최적화 경로를 다양체 상에 유지하도록 설계된 새로운 최적화 알고리즘인 '측지선 경사 하강법 (GGD)'을 제안하며, 이를 통해 기존 Adam 알고리즘 대비 Fully Connected 네트워크와 CNN 에서 각각 MSE 와 교차 엔트로피 손실을 유의미하게 감소시키는 효과를 입증했습니다.

Liwei Hu, Guangyao Li, Wenyong Wang, Xiaoming Zhang, Yu Xiang2026-03-10🤖 cs.LG