ContextBench: Modifying Contexts for Targeted Latent Activation

この論文は、言語モデルの特定の潜在特徴や動作を誘発する入力生成手法を「文脈修正」として定式化し、その能力と安全性への応用を評価するベンチマーク「ContextBench」を提案するとともに、LLM 支援や拡散モデルによる修正を加えた進化型プロンプト最適化(EPO)が、誘発効果と言語的流暢さのバランスにおいて最先端のパフォーマンスを達成することを示しています。

Robert Graham, Edward Stevinson, Leo Richter, Alexander Chia, Joseph Miller, Joseph Isaac BloomMon, 09 Ma🤖 cs.AI

Iterative Quantum Feature Maps

本論文は、ノイズやハードウェア制約に直面する実用的な量子ハードウェアにおいて、変分パラメータの最適化を不要としつつ、浅い量子特徴マップを反復的に結合するハイブリッド量子古典フレームワーク「反復量子特徴マップ(IQFMs)」を提案し、量子畳み込みニューラルネットワークや古典的ニューラルネットワークと同等以上の性能を実現する手法を提示しています。

Nasa Matsumoto, Quoc Hoan Tran, Koki Chinzei, Yasuhiro Endo, Hirotaka OshimaMon, 09 Ma⚛️ quant-ph

Learning the action for long-time-step simulations of molecular dynamics

この論文は、機械学習を用いて系の力学的な作用(action)を学習し、対称性と時間可逆性を保つ構造保存マップを構築することで、分子動力学シミュレーションの長時間ステップ化におけるエネルギー保存や等分配則の破れといった問題を解決し、異なる熱力学的条件や化学組成へも転用可能な高精度な積分手法を提案するものである。

Filippo Bigi, Johannes Spies, Michele CeriottiMon, 09 Ma🔬 cond-mat.mtrl-sci

Kernel VICReg for Self-Supervised Learning in Reproducing Kernel Hilbert Space

本論文は、自己教師あり学習の VICReg 目的関数を再生核ヒルベルト空間に拡張した「Kernel VICReg」を提案し、非線形構造のデータやサンプル数が限られる環境において、従来のユークリッド空間ベースの手法よりも優れた表現学習とモデルの崩壊防止を実現することを示しています。

M. Hadi Sepanj, Benyamin Ghojogh, Saed Moradi, Paul FieguthMon, 09 Ma🤖 cs.LG

Learning Centre Partitions from Summaries

この論文は、多施設研究におけるパラメータの不均質性を検出し、要約統計量に基づく多変量コクラン型検定とブートストラップ法を組み合わせた「センターのクラスター(CoC)」アルゴリズムを開発し、真のセンター分類を高い確率で回復できることを理論的に証明するとともに、シミュレーションと実データ分析でその有効性を示したものである。

Zinsou Max Debaly, Jean-Francois Ethier, Michael H. Neumann, Félix Camirand-LemyreMon, 09 Ma🔢 math

Self-Speculative Masked Diffusions

本論文は、非因果的アテンションマスクを因果的に変更してドラフトトークンを生成し、モデル統合型のスペキュレイティブサンプリング機構により並列検証を行う「自己スペキュレイティブ・マスクド拡散」を提案し、離散データ生成における標準的なマスクド拡散モデルと比較して、ネットワークの順伝播回数を約半分にするのに成功したことを報告しています。

Andrew Campbell, Valentin De Bortoli, Jiaxin Shi, Arnaud DoucetMon, 09 Ma🤖 cs.LG

Escaping Model Collapse via Synthetic Data Verification: Near-term Improvements and Long-term Convergence

本論文は、外部の検証器(人間や高性能モデル)による合成データの検証プロセスを導入することで、モデル崩壊を回避し短期的な性能向上を実現できる一方、長期的には検証器の知識中心に収束し、検証器の完全な信頼性がなければ初期の改善が頭打ちや逆転する可能性があることを、理論と実験を通じて明らかにしています。

Bingji Yi, Qiyuan Liu, Yuwei Cheng, Haifeng XuMon, 09 Ma🤖 cs.LG

Data-Driven Global Sensitivity Analysis for Engineering Design Based on Individual Conditional Expectations

本論文は、強い相互作用が存在する際に平均化によって相互作用効果が隠蔽されるという Partial Dependence Plot(PDP)の限界を克服するため、Individual Conditional Expectation(ICE)曲線に基づく新たなグローバル感度指標を提案し、その数学的性質の証明と航空宇宙設計などの実例における PDP や SHAP 等との比較を通じて、その有効性を示したものである。

Pramudita Satria Palar, Paul Saves, Rommel G. Regis, Koji Shimoyama, Shigeru Obayashi, Nicolas Verstaevel, Joseph MorlierMon, 09 Ma🤖 cs.AI

Learning Optimal Distributionally Robust Individualized Treatment Rules Integrating Multi-Source Data

この論文は、複数のデータソースを統合して最適な個別化治療ルール(ITR)を推定する際の問題である事後シフトに対処するため、事前情報に基づく分布ロバストなアプローチ(PDRO-ITR)を提案し、その閉形式解の導出、適応的な調整手順、および理論的なリスク保証を示すとともに、シミュレーションと実データ分析を通じて既存手法を上回る性能を実証しています。

Wenhai Cui, Wen Su, Xingqiu ZhaoMon, 09 Ma🤖 cs.LG

Behavior-dLDS: A decomposed linear dynamical systems model for neural activity partially constrained by behavior

本論文は、脳活動と行動の関係を解明し、内部計算と行動生成を分離して大規模神経集団のダイナミクスを捉えるために、行動によって部分的に制約された分解型線形ダイナミカルシステムモデル「behavior-dLDS」を提案し、シミュレーションデータおよびゼブラフィッシュの記録データにおける有効性を示したものである。

Eva Yezerets, En Yang, Misha B. Ahrens, Adam S. CharlesMon, 09 Ma🤖 cs.LG

Improved Scaling Laws via Weak-to-Strong Generalization in Random Feature Ridge Regression

この論文は、ランダム特徴量リッジ回帰を用いた弱教師から強学生への転移学習において、教師モデルのテスト誤差がサンプルサイズに対して減少しなくても、学生モデルが教師の性能を大幅に上回り、最小最大最適収束率を達成しうることを示しています。

Diyuan Wu, Lehan Chen, Theodor Misiakiewicz, Marco MondelliMon, 09 Ma🤖 cs.LG

Large deviation principles for convolutional Bayesian neural networks

本論文は、無限チャネル極限における畳み込みニューラルネットワーク(CNN)の重みにガウス事前分布を仮定した場合の条件付き共分散行列および事後分布に対して、初めて大偏差原理(LDP)を確立し、ネットワークのガウス等価性や共分散の集中に関する証明を簡素化したものである。

Federico Bassetti, Vassili De Palma, Lucia LadelliMon, 09 Ma🔢 math

Agnostic learning in (almost) optimal time via Gaussian surface area

この論文は、ガウス表面積がΓ\Gammaの概念クラスに対するアグノスティック学習の多項式次数の上限を、既存のO(Γ2/ε4)O(\Gamma^2 / \varepsilon^4)からO~(Γ2/ε2)\tilde O(\Gamma^2 / \varepsilon^2)へと改善し、統計的クエリモデルにおける多項式閾値関数の学習複雑性に対してほぼ最適な結果をもたらすことを示しています。

Lucas Pesenti, Lucas Slot, Manuel WiedmerMon, 09 Ma🤖 cs.LG

Predictive Coding Graphs are a Superset of Feedforward Neural Networks

この論文は、神経科学に着想を得た確率的潜在変数モデルである予測符号化グラフ(PCG)が、多層パーセプトロンの数学的超集合を定義することを証明し、これにより PCG を現代の機械学習の文脈に位置づけ、ニューラルネットワークのトポロジーに関する研究を強化していることを示しています。

Björn van ZwolMon, 09 Ma🤖 cs.AI

Gradient Flow Polarizes Softmax Outputs towards Low-Entropy Solutions

本論文は、softmax ベースのモデル(特にトランスフォーマーの自己注意機構の中核)における勾配流のダイナミクスを解析し、最適化が本質的に低エントロピーの出力へと収束する普遍的なメカニズムを明らかにし、これが「アテンション・シンク」や「巨大な活性化」といった実証的な現象を理論的に説明することを示しています。

Aditya Varre, Mark Rofin, Nicolas FlammarionMon, 09 Ma🤖 cs.LG