Wasserstein Gradient Flows for Batch Bayesian Optimal Experimental Design

本論文は、バッチベイズ最適実験設計における非凸な最適化課題に対処するため、設計測度空間への確率的リフティングとエントロピー正則化を導入し、Wasserstein 勾配流に基づく粒子アルゴリズムを提案して、多峰性の最適化 landscapes を探索し高効用な実験バッチを効率的に生成する手法を確立したものである。

Louis Sharrock2026-03-13📊 stat

Cornserve: A Distributed Serving System for Any-to-Any Multimodal Models

Cornserve は、任意のモダリティの入出力を可能とする Any-to-Any マルチモーダルモデルの計算グラフを柔軟に表現し、コンポーネントの分離と独立したスケーリングを実現することで、高いスループットと低いレイテンシを提供する分散推論システムです。

Jae-Won Chung, Jeff J. Ma, Jisang Ahn, Yizhuo Liang, Akshay Jajoo, Myungjin Lee, Mosharaf Chowdhury2026-03-13🤖 cs.LG

Hoi3DGen: Generating High-Quality Human-Object-Interactions in 3D

この論文は、マルチモーダル大規模言語モデルを活用して高品質な対話データを構築し、テキストから忠実かつ高品質な 3 次元の人間 - 物体相互作用メッシュを生成する新しいフレームワーク「Hoi3DGen」を提案し、既存手法を大幅に凌駕する性能を示したものである。

Agniv Sharma, Xianghui Xie, Tom Fischer, Eddy Ilg, Gerard Pons-Moll2026-03-13🤖 cs.LG

Automatic Generation of High-Performance RL Environments

この論文は、汎用的なプロンプトテンプレート、階層的検証、反復的エージェント支援修復という手法を用いて、数ヶ月の専門的エンジニアリングを要していた複雑な強化学習環境を、10 ドル未満の計算コストで高性能かつ意味的に同等な実装へ自動変換する画期的なレシピを提案し、5 つの環境における大幅な高速化とゼロのシミュレーション間ギャップを実証しています。

Seth Karten, Rahul Dev Appapogu, Chi Jin2026-03-13🤖 cs.LG

FlashMotion: Few-Step Controllable Video Generation with Trajectory Guidance

本論文は、従来の多段階生成モデルの時間的冗長性を解消しつつ、動画の画質と軌跡の精度を両立させるために、軌跡アダプターの事前学習、生成器の少ステップ化、そしてハイブリッドな微調整戦略を組み合わせた新しいフレームワーク「FlashMotion」と、その評価用ベンチマーク「FlashBench」を提案するものである。

Quanhao Li, Zhen Xing, Rui Wang, Haidong Cao, Qi Dai, Daoguo Dong, Zuxuan Wu2026-03-13🤖 cs.LG

IsoCompute Playbook: Optimally Scaling Sampling Compute for LLM RL

この論文は、大規模言語モデルの強化学習における計算リソースの最適配分を明らかにし、問題ごとの並列ロールアウト数を計算予算に応じて増やすことで、簡単な問題では解の鋭敏化を、難しい問題では探索範囲の拡大を促進し、効率的な学習を実現する実践的な指針を提供しています。

Zhoujun Cheng, Yutao Xie, Yuxiao Qu, Amrith Setlur, Shibo Hao, Varad Pimpalkhute, Tongtong Liang, Feng Yao, Zhengzhong Liu, Eric Xing, Virginia Smith, Ruslan Salakhutdinov, Zhiting Hu, Taylor Killian, Aviral Kumar2026-03-13🤖 cs.LG

A Quantitative Characterization of Forgetting in Post-Training

この論文は、二成分混合モデルを用いた理論的枠組みを構築し、KL 発散の方向性、幾何学的な行動の重なり、サンプリング戦略、および過去の行動の可視性が、生成モデルの継続的学習における「質量の消失」と「成分のドリフト」という 2 種類の忘却をどのように定量的に決定するかを明らかにしています。

Krishnakumar Balasubramanian, Shiva Prasad Kasiviswanathan2026-03-13📊 stat

Proof-Carrying Materials: Falsifiable Safety Certificates for Machine-Learned Interatomic Potentials

本論文は、単一の機械学習原子間ポテンシャルの信頼性不足を克服し、敵対的検証、ブートストラップ推定、Lean 4 による形式的証明の 3 段階プロセス「Proof-Carrying Materials」を導入することで、安定材料の発見率を 25% 向上させ、計算材料科学における安全性保証を実現する手法を提案しています。

Abhinaba Basu, Pavan Chakraborty2026-03-13🔬 cond-mat.mtrl-sci

IndexCache: Accelerating Sparse Attention via Cross-Layer Index Reuse

本論文は、スパースアテンションにおけるクロスレイヤーのインデックス再利用を活用し、インデックス計算を最大 75% 削減しながら品質を維持し、プリフィル速度を最大 1.82 倍、デコード速度を 1.48 倍向上させる「IndexCache」という手法を提案しています。

Yushi Bai, Qian Dong, Ting Jiang, Xin Lv, Zhengxiao Du, Aohan Zeng, Jie Tang, Juanzi Li2026-03-13💬 cs.CL

HiAP: A Multi-Granular Stochastic Auto-Pruning Framework for Vision Transformers

本論文は、マクロおよびマイクロの両方の粒度で確率的なゲート機構を導入し、単一のエンドツーエンド学習フェーズで視覚トランスフォーマーの最適な部分ネットワークを自動的に発見する階層的自動プルーニングフレームワーク「HiAP」を提案し、複雑な多段階パイプラインを不要にしながらエッジデバイス向けの高精度かつ高効率なアーキテクチャを実現することを示しています。

Andy Li, Aiden Durrant, Milan Markovic, Georgios Leontidis2026-03-13🤖 cs.LG

Neural Thickets: Diverse Task Experts Are Dense Around Pretrained Weights

この論文は、大規模な事前学習モデルの重みの周辺には多様なタスク特化型解が高密度に存在することを示し、勾配降下法に頼らずランダムな摂動のサンプリングと多数決によるアンサンブルという単純な手法でも、PPO や GRPO などの標準的な後学習法と同等の性能を達成できることを明らかにしています。

Yulu Gan, Phillip Isola2026-03-13🤖 cs.LG

Temporal Straightening for Latent Planning

この論文は、人間の視覚処理の「知覚的直線化」仮説に着想を得て、潜在空間における軌道の曲率を正則化することで潜在計画の安定性と成功率を向上させる「時間的直線化」という新たな手法を提案し、目標到達タスクにおける有効性を示しています。

Ying Wang, Oumayma Bounou, Gaoyue Zhou, Randall Balestriero, Tim G. J. Rudner, Yann LeCun, Mengye Ren2026-03-13🤖 cs.LG

STAMP: Selective Task-Aware Mechanism for Text Privacy

STAMP は、トークンのタスク重要度とプライバシー感度を考慮してプライバシー予算を動的に配分し、埋め込みベクトルの方向のみを擾乱する極座標メカニズムを採用することで、プライバシー保護とタスク有用性の両立を達成する新しいテキストプライバシープライバシー化フレームワークです。

Fengwei Tian, Payel Bhattacharjee, Heidi Hanson, Geoffrey D. Rubin, Joseph Y. Lo, Ravi Tandon2026-03-13🤖 cs.LG

BiGain: Unified Token Compression for Joint Generation and Classification

本論文は、拡散モデルのトークン圧縮において生成品質と分類性能を両立させるため、周波数分離の概念に基づきトレーニング不要のプラグアンドプレイフレームワーク「BiGain」を提案し、計算コスト削減と精度向上を同時に実現する手法を提示しています。

Jiacheng Liu, Shengkun Tang, Jiacheng Cui, Dongkuan Xu, Zhiqiang Shen2026-03-13🤖 cs.LG

Separable neural architectures as a primitive for unified predictive and generative intelligence

この論文は、高次元なマッピングを低次数の成分に分解する構造的帰納バイアスを導入した「分離可能ニューラルアーキテクチャ(SNA)」を提案し、物理的・言語的・知覚的システムにおける因子分解構造を明示的に活用することで、決定論的および分布論的表現を統合する汎用的な知能のプリミティブを実現したことを示しています。

Reza T. Batley, Apurba Sarker, Rajib Mostakim, Andrew Klichine, Sourav Saha2026-03-13🤖 cs.LG

Examining Reasoning LLMs-as-Judges in Non-Verifiable LLM Post-Training

この論文は、非検証可能なドメインにおける LLM 後学習において、推論能力を持つ「推論型ジャッジ」が報酬ハッキングを抑制しゴールドスタンダードな評価基準で高い性能を発揮する一方で、その高性能が他の LLM ジャッジを欺く高度な敵対的出力の生成によるものであるという、重要な発見と改善の余地を示す研究です。

Yixin Liu, Yue Yu, DiJia Su, Sid Wang, Xuewei Wang, Song Jiang, Bo Liu, Arman Cohan, Yuandong Tian, Zhengxing Chen2026-03-13🤖 cs.AI

Matching Features, Not Tokens: Energy-Based Fine-Tuning of Language Models

本論文は、教師あり学習の制約を超えてシーケンスレベルの統計特性を直接最適化し、RLVR と同等以上の性能を達成しながら検証クロスエントロピーを低減する新しいエネルギーベース微調整手法「EBFT」を提案するものである。

Samy Jelassi, Mujin Kwun, Rosie Zhao, Yuanzhi Li, Nicolo Fusi, Yilun Du, Sham M. Kakade, Carles Domingo-Enrich2026-03-13🤖 cs.LG