Rel-MOSS: Towards Imbalanced Relational Deep Learning on Relational Databases

이 논문은 관계형 데이터베이스의 불균형 문제를 해결하기 위해 이웃 메시지 조절을 위한 관계별 게이트 제어기와 관계 일관성을 유지하는 과표본화 합성기를 도입한 'Rel-MOSS'를 제안하고, 다양한 데이터셋에서 기존 최첨단 방법보다 우수한 성능을 입증합니다.

Jun Yin, Peng Huo, Bangguo Zhu, Hao Yan, Senzhang Wang, Shirui Pan, Chengqi Zhang2026-03-10🤖 cs.LG

ELLMob: Event-Driven Human Mobility Generation with Self-Aligned LLM Framework

이 논문은 태풍, 팬데믹, 올림픽과 같은 대규모 사회적 사건을 반영한 이동성 데이터셋을 최초로 구축하고, Fuzzy-Trace 이론을 기반으로 습관적 패턴과 사건 제약 사이의 경쟁적 논리를 추출하여 정렬하는 자기 정렬 LLM 프레임워크 'ELLMob'을 제안함으로써 기존 방법론의 한계를 극복하고 사건에 대응하는 인간 이동성 생성의 정확도를 획기적으로 향상시켰습니다.

Yusong Wang, Chuang Yang, Jiawei Wang, Xiaohang Xu, Jiayi Xu, Dongyuan Li, Chuan Xiao, Renhe Jiang2026-03-10🤖 cs.LG

Scaling Machine Learning Interatomic Potentials with Mixtures of Experts

이 논문은 희소 활성화와 공유 전문가를 결합한 요소별 라우팅 기반의 비선형 전문가 혼합 (MoE) 아키텍처를 제안하여 분자 간 상호작용 모델링의 정확도를 획기적으로 향상시키고, 주기율표 경향에 부합하는 화학적으로 해석 가능한 전문가 전문화를 입증했습니다.

Yuzhi Liu, Duo Zhang, Anyang Peng, Weinan E, Linfeng Zhang, Han Wang2026-03-10🤖 cs.LG

\$OneMillion-Bench: How Far are Language Agents from Human Experts?

이 논문은 법률, 금융, 산업, 의료, 자연과학 등 5 개 전문 분야의 400 개 전문가 큐레이션 과제를 포함하여 기존 벤치마크의 한계를 넘어 언어 에이전트의 실제 전문성, 추론 과정, 그리고 경제적 중요성이 있는 시나리오에서의 신뢰성을 종합적으로 평가하기 위한 새로운 벤치마크인 '$OneMillion-Bench'를 소개합니다.

Qianyu Yang, Yang Liu, Jiaqi Li, Jun Bai, Hao Chen, Kaiyuan Chen, Tiliang Duan, Jiayun Dong, Xiaobo Hu, Zixia Jia, Yang Liu, Tao Peng, Yixin Ren, Ran Tian, Zaiyuan Wang, Yanglihong Xiao, Gang Yao, Lingyue Yin, Ge Zhang, Chun Zhang, Jianpeng Jiao, Zilong Zheng, Yuan Gong2026-03-10🤖 cs.LG

SmartThinker: Progressive Chain-of-Thought Length Calibration for Efficient Large Language Model Reasoning

SmartThinker 는 GRPO 기반의 점진적 CoT 길이 보정 기법을 통해 복잡한 문제의 난이도와 응답 분포에 따라 최적의 추론 길이를 동적으로 조정함으로써, 대형 언어 모델의 과도한 추론을 줄이면서도 정확도를 향상시킵니다.

Chenzhi Hu, Qinzhe Hu, Yuhang Xu, Junyi Chen, Ruijie Wang, Shengzhong Liu, Jianxin Li, Fan Wu, Guihai Chen2026-03-10🤖 cs.LG

FedMomentum: Preserving LoRA Training Momentum in Federated Fine-Tuning

이 논문은 LoRA 모듈의 독립적 평균화로 인한 노이즈와 구조적 표현력 저하 문제를 해결하기 위해, 수학적으로 정확한 집계 후 SVD 를 적용하여 학습 모멘텀을 보존하는 새로운 연방 미세조정 프레임워크인 'FedMomentum'을 제안하고, 이를 통해 수렴 속도와 최종 정확도를 기존 최첨단 방법보다 향상시켰음을 보여줍니다.

Peishen Yan, Yang Hua, Hao Wang, Jiaru Zhang, Xiaoyu Wu, Tao Song, Haibing Guan2026-03-10🤖 cs.LG

GCGNet: Graph-Consistent Generative Network for Time Series Forecasting with Exogenous Variables

이 논문은 시계열 예측에서 외생 변수와 내생 변수 간의 시공간 상관관계를 노이즈에 강건하게 모델링하기 위해 변이형 생성기, 그래프 구조 정렬기, 그래프 정제기로 구성된 GCGNet 을 제안하고, 12 개의 실제 데이터셋에서 기존 최첨단 방법들을 능가하는 성능을 입증합니다.

Zhengyu Li, Xiangfei Qiu, Yuhan Zhu, Xingjian Wu, Jilin Hu, Chenjuan Guo, Bin Yang2026-03-10🤖 cs.LG

CDRRM: Contrast-Driven Rubric Generation for Reliable and Interpretable Reward Modeling

이 논문은 대규모 언어 모델의 선호도 정렬을 위해 해석 가능성과 데이터 효율성을 동시에 개선하기 위해, 선호 쌍의 다차원 대비 분석을 통해 고품질 평가 기준을 생성하고 이를 기반으로 편향을 완화하며 최첨단 성능을 달성하는 'CDRRM' 프레임워크를 제안합니다.

Dengcan Liu, Fengkai Yang, Xiaohan Wang, Shurui Yan, Jiajun Chai, Jiahao Li, Yikun Ban, Zhendong Mao, Wei Lin, Guojun Yin2026-03-10🤖 cs.LG

Stabilized Fine-Tuning with LoRA in Federated Learning: Mitigating the Side Effect of Client Size and Rank via the Scaling Factor

이 논문은 연동 학습 환경에서 고랭크 LoRA 적응 시 발생하는 집계 오차와 그라디언트 붕괴 문제를 해결하기 위해, 클라이언트 수와 랭크 간의 상호작용을 이론적으로 분석하여 최적의 스케일링 인자를 도입한 'Stabilized Federated LoRA (SFed-LoRA)' 프레임워크를 제안합니다.

Jiayu Huang, Xiaohu Wu, Tiantian He, Qicheng Lao2026-03-10🤖 cs.LG