Coded Computing for Resilient Distributed Computing: A Learning-Theoretic Framework

이 논문은 학습 이론을 통합하여 코딩 컴퓨팅의 새로운 기반을 제시하고, 최적의 인코더 및 디코더 함수를 도출하여 노이즈 유무에 따른 추정 오차의 수렴 속도를 이론적으로 분석한 후 다양한 머신러닝 추론 작업에서 기존 최첨단 기법보다 우수한 정확도와 수렴 속도를 입증합니다.

Parsa Moradi, Behrooz Tahmasebi, Mohammad Ali Maddah-Ali2026-03-26🤖 cs.LG

Multiway Multislice PHATE: Visualizing Hidden Dynamics of RNNs through Training

이 논문은 RNN 의 은닉 상태가 시간, 학습 에포크, 유닛 차원을 가로지르며 어떻게 진화하는지 시각화하기 위해 그래프 기반 임베딩 방법인 'Multiway Multislice PHATE(MM-PHATE)'를 제안하고, 이를 통해 학습 과정 중의 표현 기하학적 변화와 정보 처리 단계를 포착하여 RNN 의 블랙박스 특성을 해석하는 데 기여함을 보여줍니다.

Jiancheng Xie, Lou C. Kohler Voinov, Noga Mudrik, Gal Mishne, Adam Charles2026-03-26🤖 cs.LG

Proximity Matters: Local Proximity Enhanced Balancing for Treatment Effect Estimation

이 논문은 관측 데이터의 치료 선택 편향을 해결하기 위해 최적 수송 기반의 쌍별 근접성 정규화자와 정보 하위 공간 프로젝터를 도입하여 국소적 근접성을 활용한 새로운 HTE 추정 모델인 CFR-Pro 를 제안하고, 이를 통해 기존 방법들보다 우수한 편향 완화 및 추정 성능을 입증합니다.

Hao Wang, Zhichao Chen, Zhaoran Liu, Xu Chen, Haoxuan Li, Zhouchen Lin2026-03-26📊 stat

Set2Seq Transformer: Temporal and Position-Aware Set Representations for Sequential Multiple-Instance Learning

이 논문은 시퀀스 내 집합의 내부 구조와 시간적 관계를 동시에 포착하기 위해 순열 불변성과 시간·위치 정보를 결합한 새로운 아키텍처인 Set2Seq Transformer 를 제안하고, 예술 작품 분석 및 산불 위험 예측 등 다양한 도메인에서 기존 방법보다 우수한 성능을 입증합니다.

Athanasios Efthymiou, Stevan Rudinac, Monika Kackovic, Nachoem Wijnberg, Marcel Worring2026-03-26🤖 cs.LG

Phrase-Instance Alignment for Generalized Referring Segmentation

이 논문은 언어적 구와 시각적 인스턴스 간의 정밀한 대응을 학습하기 위해 '구 - 객체 정렬 (POA)' 손실 함수와 통합적 가중치 집계 메커니즘을 도입하여, 기존 일반화 참조 분할 (GRES) 모델의 한계를 극복하고 gRefCOCO 및 Ref-ZOM 벤치마크에서 기존 최고 성능을 크게 상회하는 결과를 달성한 방법을 제안합니다.

E-Ro Nguyen, Hieu Le, Dimitris Samaras, Michael S. Ryoo2026-03-26💬 cs.CL

Symmetry-Guided Memory Augmentation for Efficient Locomotion Learning

이 논문은 로봇과 작업의 대칭성을 활용하여 물리적으로 일관된 추가 경험을 생성하고 이를 정책의 메모리 상태에 통합하는 '대칭 유도 메모리 증강 (SGMA)' 프레임워크를 제안함으로써, 다리가 있는 로봇의 보행 학습에 필요한 환경 상호작용 비용을 줄이고 데이터 효율성을 극대화합니다.

Kaixi Bao, Chenhao Li, Yarden As, Andreas Krause, Marco Hutter2026-03-26🤖 cs.LG

Evaluation of Large Language Models via Coupled Token Generation

이 논문은 대규모 언어 모델의 평가 시 무작위성을 통제하는 '결합 토큰 생성' 기법을 제안하여, 기존 벤치마크에서는 샘플 효율성을 높이고 인간 쌍별 비교에서는 무작위성으로 인한 편향을 제거해 모델 순위의 신뢰성을 확보할 수 있음을 이론적 및 실험적으로 입증했습니다.

Nina Corvelo Benz, Stratis Tsirtsis, Eleni Straitouri, Ivi Chatzi, Ander Artola Velasco, Suhas Thejaswi, Manuel Gomez-Rodriguez2026-03-26💬 cs.CL