X-MethaneWet: A Cross-scale Global Wetland Methane Emission Benchmark Dataset for Advancing Science Discovery with AI

이 논문은 물리 기반 모델 시뮬레이션 데이터와 실제 관측 데이터를 융합한 최초의 글로벌 습지 메탄 배출 벤치마크 데이터셋 'X-MethaneWet'을 제안하고, 이를 통해 메탄 플럭스 예측을 위한 딥러닝 모델 및 전이 학습 기법의 유효성을 검증하여 AI 기반 기후 모델 발전에 기여합니다.

Yiming Sun, Shuo Chen, Shengyu Chen, Chonghao Qiu, Licheng Liu, Youmi Oh, Sparkle L. Malone, Gavin McNicol, Qianlai Zhuang, Chris Smith, Yiqun Xie, Xiaowei Jia2026-03-10🤖 cs.LG

Maximum Principle of Optimal Probability Density Control

이 논문은 대규모 다중 에이전트 제어 문제를 해결하기 위해 확률 분포 공간에서 최적 제어에 대한 최대 원리와 해밀턴-자코비-벨만 방정식을 rigorously 유도하고, 이를 기반으로 심층 신경망을 활용한 확장 가능한 수치 알고리즘을 제안하여 도메인 장애물 및 에이전트 간 상호작용이 포함된 다양한 예제에서 그 유효성을 입증합니다.

Nathan Gaby, Xiaojing Ye2026-03-10🤖 cs.LG

VISTA: Vision-Language Inference for Training-Free Stock Time-Series Analysis

이 논문은 과거 주가 데이터의 텍스트와 차트 이미지를 결합하여 Vision-Language Model(VLM) 을 활용하는 훈련 없는 프레임워크인 VISTA 를 제안하고, 이를 통해 기존 통계 모델 및 텍스트 기반 LLM 보다 최대 89.83% 높은 정확도로 주가 예측 성능을 입증했습니다.

Tina Khezresmaeilzadeh, Parsa Razmara, Seyedarmin Azizi, Mohammad Erfan Sadeghi, Erfan Baghaei Potraghloo2026-03-10🤖 cs.LG

ViTaPEs: Visuotactile Position Encodings for Cross-Modal Alignment in Multimodal Transformers

이 논문은 시각 및 촉각 데이터 간의 정교한 공간적 상관관계를 포착하기 위해 로컬 및 글로벌 위치 인코딩을 2 단계로 주입하는 트랜스포머 기반 아키텍처인 ViTaPEs 를 제안하여, 다양한 인식 작업과 로봇 그리핑에서 최첨단 성능과 제로샷 일반화 능력을 입증합니다.

Fotios Lygerakis, Ozan Özdenizci, Elmar Rückert2026-03-10🤖 cs.LG

LoFT: Low-Rank Adaptation That Behaves Like Full Fine-Tuning

이 논문은 옵티마이저의 모멘텀과 분산까지 저랭크 서브스페이스에 투영하여 전체 모델 미세조정과 유사한 동역학을 구현함으로써, 추가 하이퍼파라미터 튜닝 없이 LoRA 의 성능 한계를 극복하고 전체 미세조정과 유사한 성능을 달성하는 새로운 방법인 LoFT 를 제안합니다.

Nurbek Tastan, Stefanos Laskaridis, Martin Takac, Karthik Nandakumar, Samuel Horvath2026-03-10🤖 cs.LG

Rethinking Continual Learning with Progressive Neural Collapse

이 논문은 기존 continual learning 의 고정된 ETF 한계를 극복하고, 새로운 작업이 추가될 때마다 ETF 를 점진적으로 확장하여 클래스 간 최대 분리성을 보장하는 'Progressive Neural Collapse (ProNC)'라는 새로운 프레임워크를 제안하고, 이를 통해 재학습 방지와 성능 향상을 동시에 달성함을 보여줍니다.

Zheng Wang, Wanhao Yu, Li Yang, Sen Lin2026-03-10🤖 cs.LG

Adaptive Correction for Ensuring Conservation Laws in Neural Operators

이 논문은 신경 연산자 (Neural Operator) 의 출력에 물리 법칙 (질량 및 운동량 보존 등) 을 엄격하게 준수하도록 보장하기 위해, 학습 가능한 경량 연산자를 도입하여 유연하게 보정하는 새로운 적응형 보정 기법을 제안하고, 이를 통해 기존 방법들보다 정확도와 안정성을 크게 향상시킴을 이론적 분석과 다양한 실험을 통해 입증합니다.

Chaoyu Liu, Yangming Li, Zhongying Deng, Chris Budd, Carola-Bibiane Schönlieb2026-03-10🤖 cs.LG

MMTU: A Massive Multi-Task Table Understanding and Reasoning Benchmark

이 논문은 전문가 수준의 테이블 이해, 추론, 조작 능력을 포괄적으로 평가하기 위해 25 가지 실제 태스크와 28,000 개 이상의 질문으로 구성된 대규모 벤치마크인 MMTU 를 소개하고, 최신 선두 모델들조차 이 작업에서 상당한 개선의 여지가 있음을 보여줍니다.

Junjie Xing, Yeye He, Mengyu Zhou, Haoyu Dong, Shi Han, Lingjiao Chen, Dongmei Zhang, Surajit Chaudhuri, H. V. Jagadish2026-03-10🤖 cs.LG

EROICA: Online Performance Troubleshooting for Large-scale Model Training

EROICA 는 대규모 GPU 클러스터에서 발생하는 하드웨어 및 소프트웨어 성능 문제를 실시간으로 진단하고 근본 원인을 규명하기 위해 프로파일링 기반의 미세 관찰과 차등 관측성을 활용한 최초의 온라인 문제 해결 시스템입니다.

Yu Guan, Zhiyu Yin, Haoyu Chen, Sheng Cheng, Chaojie Yang, Kun Qian, Tianyin Xu, Pengcheng Zhang, Yang Zhang, Hanyu Zhao, Yong Li, Wei Lin, Dennis Cai, Ennan Zhai2026-03-10🤖 cs.LG

Efficient Algorithms for Logistic Contextual Slate Bandits with Bandit Feedback

이 논문은 로지스틱 컨텍스트 슬레이트 밴딧 문제에서 국소적 계획과 전역적 학습을 결합하여 NO(1)N^{O(1)} 의 낮은 계산 비용으로 O~(T)\tilde{O}(\sqrt{T}) 의 후회 (regret) 를 달성하는 효율적인 알고리즘을 제안하고, 이를 언어 모델의 프롬프트 예제 선택 등 실제 응용에 성공적으로 적용함을 보여줍니다.

Tanmay Goyal, Gaurav Sinha2026-03-10🤖 cs.LG

Adaptive Batch-Wise Sample Scheduling for Direct Preference Optimization

이 논문은 DPO(직접 선호도 최적화) 과정 중 모델의 학습 상태 변화에 따라 배치 단위로 샘플을 동적으로 선택하는 'SamS' 알고리즘을 제안하여, 핵심 알고리즘을 수정하지 않고도 추가적인 계산 비용 없이 LLM 의 정렬 성능을 크게 향상시키는 새로운 방향을 제시합니다.

Zixuan Huang, Yikun Ban, Lean Fu, Xiaojie Li, Zhongxiang Dai, Jianxin Li, Deqing Wang2026-03-10🤖 cs.LG