Historical Consensus: Preventing Posterior Collapse via Iterative Selection of Gaussian Mixture Priors
本論文は、複数のガウス混合モデルクラスタリングの制約を反復的に選択・最適化する「Historical Consensus Training」を導入することで、アーキテクチャの制約やハイパーパラメータの調整なしに、変分オートエンコーダにおける後方崩壊を根本的に防止し、安定した潜在表現を学習可能にする手法を提案しています。