LoRA-Ensemble: Efficient Uncertainty Modelling for Self-Attention Networks

이 논문은 사전 학습된 자기 주의 네트워크와 개별 저랭크 행렬을 공유하는 LoRA 기반의 효율적인 앙상블 방법인 'LoRA-Ensemble'을 제안하여, 명시적 앙상블 수준의 정확도와 우수한 보정 능력을 유지하면서 계산 비용과 메모리 오버헤드를 크게 줄인다고 요약할 수 있습니다.

Dominik J. Mühlematter, Michelle Halbheer, Alexander Becker, Dominik Narnhofer, Helge Aasen, Konrad Schindler, Mehmet Ozgur Turkoglu2026-03-10🤖 cs.LG

Fast Explanations via Policy Gradient-Optimized Explainer

이 논문은 기존 방법의 비효율성과 특수성 문제를 해결하기 위해 정책 경사법을 활용해 확률 분포로 표현된 어트리뷰션 기반 설명을 최적화하는 'Fast Explanation (FEX)' 프레임워크를 제안하며, 이미지 및 텍스트 분류 작업에서 추론 시간을 97% 이상 단축하고 메모리 사용량을 70% 줄이면서도 높은 설명 품질과 일반성을 유지함을 입증했습니다.

Deng Pan, Nuno Moniz, Nitesh Chawla2026-03-10🤖 cs.LG

Estimating Treatment Effects under Algorithmic Interference: A Structured Neural Networks Approach

이 논문은 양측 시장 플랫폼의 알고리즘 간섭으로 인한 편향을 해결하기 위해 경쟁적 할당 메커니즘을 명시적으로 모델링하는 구조화된 반모수적 프레임워크와 이중 머신 러닝 기반의 편향 보정 추정량을 제안하여, 기존 추정법보다 정확한 전역 처리 효과를 추정할 수 있음을 입증합니다.

Ruohan Zhan, Shichao Han, Yuchen Hu, Zhenling Jiang2026-03-10🤖 cs.LG

OTAD: An Optimal Transport-Induced Robust Model for Agnostic Adversarial Attack

이 논문은 최적 수송 이론에서 유도된 정규화와 볼록 통합 문제를 통해 국소 리프시츠 연속성을 보장하면서도 훈련 데이터를 정확하게 적합할 수 있는 새로운 2 단계 적대적 방어 모델 OTAD 를 제안하여 기존 방법들의 한계를 극복하고 다양한 데이터셋에서 우수한 성능을 입증했습니다.

Kuo Gai, Sicong Wang, Shihua Zhang2026-03-10🤖 cs.LG

Mini-batch Estimation for Deep Cox Models: Statistical Foundations and Practical Guidance

이 논문은 미니배치 확률적 경사 하강법 (SGD) 을 사용하는 딥 콕스 모델의 통계적 기반을 규명하여 미니배치 최대 부분우도 추정량 (mb-MPLE) 의 일관성과 최적 수렴 속도를 증명하고, 학습률과 배치 크기의 비율 등 실용적 가이드라인을 제시하며 대규모 실제 데이터 적용 가능성을 입증합니다.

Lang Zeng, Weijing Tang, Zhao Ren, Ying Ding2026-03-10🤖 cs.LG

Variational Learning of Gaussian Process Latent Variable Models through Stochastic Gradient Annealed Importance Sampling

이 논문은 고차원 공간이나 복잡한 데이터셋에서 기존 방법의 한계를 극복하기 위해 어닐링 중요도 샘플링 (AIS) 과 재매개변수화 기법을 결합하여 가우시안 프로세스 잠재 변수 모델 (GPLVM) 의 변분 추론 성능을 획기적으로 개선하는 새로운 알고리즘을 제안합니다.

Jian Xu, Shian Du, Junmei Yang, Qianli Ma, Delu Zeng, John Paisley2026-03-10🤖 cs.LG

From Model Explanation to Data Misinterpretation: A Cautionary Analysis of Post Hoc Explainers in Business Research

본 논문은 SHAP 및 LIME 과 같은 사후 설명 기법이 예측 성능이 높음에도 불구하고 데이터의 인과관계를 왜곡할 수 있음을 181 건의 연구와 시뮬레이션을 통해 입증하며, 이를 가설 검증 도구보다는 가설 생성을 위한 탐색적 도구로만 활용해야 함을 경고합니다.

Tong Wang (Jeffrey), Ronilo Ragodos (Jeffrey), Lu Feng (Jeffrey), Yu (Jeffrey), Hu2026-03-10🤖 cs.LG

Reconsidering the energy efficiency of spiking neural networks

이 논문은 기존 평가의 한계를 지적하고, 데이터 이동 및 메모리 접근 오버헤드를 고려한 정밀한 에너지 모델을 통해 특정 운영 조건 (낮은 스파이크율과 적절한 시간 창) 에서만 SNN 이 QNN 보다 에너지 효율이 우수함을 입증하고, 이를 통해 스마트워치 배터리 수명을 두 배로 늘릴 수 있음을 보여줍니다.

Zhanglu Yan, Zhenyu Bai, Weng-Fai Wong2026-03-10🤖 cs.LG

Input-to-State Stable Coupled Oscillator Networks for Closed-form Model-based Control in Latent Space

이 논문은 물리 시스템의 수학적 구조와 안정성을 보존하고 입력-잠재 공간 매핑을 가역적으로 만드는 새로운 결합 진동자 네트워크 (CON) 모델을 제안하여, 이미지 기반의 복잡한 비선형 역학을 학습하고 잠재 공간에서 폐형 모델 기반 제어를 가능하게 함으로써 연성 로봇 제어에 탁월한 성능을 입증합니다.

Maximilian Stölzle, Cosimo Della Santina2026-03-10🤖 cs.LG

xTED: Cross-Domain Adaptation via Diffusion-Based Trajectory Editing

이 논문은 제한된 타겟 도메인 데이터를 보완하기 위해 복잡한 정책 전이 절차 대신 확산 모델을 활용하여 소스 도메인의 궤적을 타겟 도메인의 특성에 맞게 직접 편집하는 'xTED' 프레임워크를 제안하고, 이를 통해 다양한 실험에서 우수한 성능을 입증했습니다.

Haoyi Niu, Qimao Chen, Tenglong Liu, Jianxiong Li, Guyue Zhou, Yi Zhang, Jianming Hu, Xianyuan Zhan2026-03-10🤖 cs.LG

BNEM: A Boltzmann Sampler Based on Bootstrapped Noised Energy Matching

이 논문은 볼츠만 분포에서 독립적이고 동일한 분포 (IID) 를 가진 샘플을 생성하기 위해 에너지 함수를 기반으로 한 확산 기반 샘플러 'Noised Energy Matching(NEM)'과 편향과 분산을 균형 있게 조절하는 부트스트래핑 기법을 도입한 'BNEM'을 제안하며, 다양한 실험을 통해 기존 방법보다 뛰어난 성능과 견고함을 입증합니다.

RuiKang OuYang, Bo Qiang, José Miguel Hernández-Lobato2026-03-10🤖 cs.LG

Neural delay differential equations: learning non-Markovian closures for partially known dynamical systems

이 논문은 부분 관측 가능한 동적 시스템에서 숨겨진 변수와 메모리 항 간의 이론적 연결을 제공하는 모리 - 츠반지 (Mori-Zwanzig) 형식주의에 영감을 받아, 데이터로부터 비마코프 역학을 직접 학습하기 위한 상수 지연 신경 지연 미분 방정식 (NDDEs) 프레임워크를 제안하고 다양한 시뮬레이션 및 실험 데이터를 통해 기존 방법들보다 우수한 성능을 입증합니다.

Thibault Monsel, Onofrio Semeraro, Lionel Mathelin, Guillaume Charpiat2026-03-10🤖 cs.LG

Transformers as Implicit State Estimators: In-Context Learning in Dynamical Systems

이 논문은 시스템 모델에 대한 명시적 지식이나 테스트 시간의 그래디언트 업데이트 없이도, 과거 입력 - 출력 시퀀스를 컨텍스트로 제공하는 고정된 트랜스포머가 선형 및 비선형 동적 시스템의 숨겨진 상태를 암묵적으로 추정하여 칼만 필터나 파티클 필터와 유사한 예측 성능을 달성함을 보여줍니다.

Usman Akram, Haris Vikalo2026-03-10🤖 cs.LG