Enabling stratified sampling in high dimensions via nonlinear dimensionality reduction

이 논문은 신경망 기반의 비선형 차원 축소 기법인 신경 활성 매니폴드를 활용하여 고차원 입력 공간에서 모델 반응의 등고선을 따르는 층화 표본 추출을 가능하게 함으로써, 계산 비용이 큰 모델의 불확실성 전파 시 분산을 효과적으로 줄이는 방법을 제안합니다.

Gianluca Geraci, Daniele E. Schiavazzi, Andrea Zanoni2026-03-06🔢 math

Quantitative convergence of trained single layer neural networks to Gaussian processes

이 논문은 무한 폭 극한에서 경사 하강법으로 학습된 단일 층 신경망이 가우시안 프로세스로 수렴하는 정량적 거동을 분석하여, 학습 시간 t0t \ge 0에서 네트워크 출력과 가우시안 근사치 사이의 2 차 워asserstein 거리에 대한 명시적 상한을 제시하고 네트워크 폭에 따른 다항식 감쇠를 증명합니다.

Eloy Mosig, Andrea Agazzi, Dario Trevisan2026-03-06🔢 math

A Bayesian approach to learning mixtures of nonparametric components

이 논문은 베이지안 비모수적 접근법을 사용하여 유한 혼합 모델의 비모수적 성분을 학습하고, 구성 요소 분포의 식별 가능성과 사후 수렴성을 증명하며, 효율적인 MCMC 알고리즘을 통해 기존 탈합성 (deconvolution) 방법보다 우수한 수렴 속도로 복잡한 잠재 하위 집단 분포를 추정하는 방법을 제시합니다.

Yilei Zhang, Yun Wei, Aritra Guha + 1 more2026-03-06🔢 math

Dictionary Based Pattern Entropy for Causal Direction Discovery

이 논문은 심볼릭 시계열 데이터에서 인과 방향을 추론하고 효과 변수의 변화를 주도하는 하위 패턴을 식별하기 위해 알고리즘 정보 이론과 섀넌 정보 이론을 통합한 '사전 기반 패턴 엔트로피 (DPE)' 프레임워크를 제안하며, 다양한 합성 및 생물학적 데이터셋에서 기존 방법들보다 우수한 성능을 입증합니다.

Harikrishnan N B, Shubham Bhilare, Aditi Kathpalia + 1 more2026-03-06🔢 math

Bayesian Modeling of Collatz Stopping Times: A Probabilistic Machine Learning Perspective

이 논문은 콜라츠 정리의 총 정지 시간을 예측하기 위해 단순한 공변량을 기반으로 한 베이지안 계층적 음이항 회귀 모델과 홀수 블록 분해에 기반한 생성적 근사 모델을 개발하고, 저차 모듈러 구조가 이산 시간의 이질성을 설명하는 핵심 요인임을 실증적으로 규명합니다.

Nicolò Bonacorsi, Matteo Bordoni2026-03-06🔢 math