Breaking the Stochasticity Barrier: An Adaptive Variance-Reduced Method for Variational Inequalities

この論文は、確率的変分不等式における「確率性バリア」を打破し、STORM 法と同一バッチ曲率検証を統合した新しいアルゴリズム「VR-SDA-A」を提案することで、非凸非凹最適化問題において最適なオラクル複雑度 O(ε⁻³) を達成しつつ、手動学習率調整なしで自動ステップサイズ適応を可能にする手法を確立したものである。

Yungi Jeong, Takumi Otsuka2026-03-12🤖 cs.LG

Grounding Generated Videos in Feasible Plans via World Models

本論文は、物理的制約や時間的整合性を欠く場合が多いゼロショット動画生成モデルによる計画を、学習されたアクション条件付き世界モデルを用いた潜在空間軌道最適化によって実行可能な動作系列に接地する手法「GVP-WM」を提案し、ナビゲーションや操作タスクにおいて長期的な実行可能計画の回復を実証しています。

Christos Ziakas, Amir Bar, Alessandra Russo2026-03-12🤖 cs.LG

A Bandit-Based Approach to Educational Recommender Systems: Contextual Thompson Sampling for Learner Skill Gain Optimization

この論文は、オンライン数学チューティングプラットフォームのデータを用いて、学習者のスキル向上を最大化する個人向け演習シーケンスを生成する文脈的トンプソンサンプリングに基づくバンドットアプローチを提案し、その有効性とスケーラブルな個人化学習の可能性を実証しています。

Lukas De Kerpel, Arthur Thuy, Dries F. Benoit2026-03-12📊 stat

BLITZRANK: Principled Zero-shot Ranking Agents with Tournament Graphs

この論文は、k 項比較から得られる情報をペアワイズ比較の完全なトーナメントグラフとして集約し、推移閉包を計算することで追加のクエリなしに順位を導出する「BLITZRANK」という枠組みを提案し、LLM 再ランク付けにおいて既存手法を精度維持または向上させながらトークン使用量を大幅に削減する結果を示しています。

Sheshansh Agrawal, Thien Hang Nguyen, Douwe Kiela2026-03-12🤖 cs.LG

Long Chain-of-Thought Compression via Fine-Grained Group Policy Optimization

この論文は、大規模言語モデルの推論プロセスにおける冗長性を削減し、GRPO の限界を克服するために、長さやエントロピーに基づいてグループ応答を細かく重み付けする強化学習アルゴリズム「FGO」を提案し、性能を維持したまま推論コストを効果的に圧縮できることを示しています。

Xinchen Han, Hossam Afifi, Michel Marot, Xilu Wang, Lu Yin2026-03-12🤖 cs.LG

GOT-JEPA: Generic Object Tracking with Model Adaptation and Occlusion Handling using Joint-Embedding Predictive Architecture

この論文は、ジェネリックな物体追跡の汎用性と堅牢性を向上させるため、JEPA アーキテクチャを拡張して追跡モデル自体の予測を行う「GOT-JEPA」フレームワークと、オクルージョン(遮蔽)の細かなパターンを捉えて追跡精度を高める「OccuSolver」を提案し、複数のベンチマークでその有効性を示したものです。

Shih-Fang Chen, Jun-Cheng Chen, I-Hong Jhuo, Yen-Yu Lin2026-03-12🤖 cs.AI

ZACH-ViT: Regime-Dependent Inductive Bias in Compact Vision Transformers for Medical Imaging

医療画像の空間的構造が弱い領域において、位置エンコーディングや [CLS] トークンを除去しパッチの置換不変性を導入した軽量モデル「ZACH-ViT」が、データ不足の条件下でも従来の Vision Transformer よりも優れた性能を発揮し、データ構造に適合したアーキテクチャ設計の有効性を示しました。

Athanasios Angelakis2026-03-12⚡ eess

Benchmarking Graph Neural Networks in Solving Hard Constraint Satisfaction Problems

統計物理学の観点から新たな難問ベンチマークを提案し、公平な比較を通じて古典的アルゴリズムがグラフニューラルネットワークよりも依然として優れていることを示しました。

Geri Skenderi, Lorenzo Buffoni, Francesco D'Amico, David Machado, Raffaele Marino, Matteo Negri, Federico Ricci-Tersenghi, Carlo Lucibello, Maria Chiara Angelini2026-03-12🔬 cond-mat

Many AI Analysts, One Dataset: Navigating the Agentic Data Science Multiverse

この論文は、大規模言語モデルを用いた自律型 AI 分析者が人間と同様に多様な分析結果を生み出すことを実証し、AI による科学的研究における結果のばらつきを可視化し、透明性を高めるための新たな規範(多宇宙報告とプロンプトの開示)の必要性を提唱しています。

Martin Bertran, Riccardo Fogliato, Zhiwei Steven Wu2026-03-12🤖 cs.AI

Active Value Querying to Minimize Additive Error in Subadditive Set Function Learning

本論文は、組合せオークションや機械学習の解釈可能性などにおいて重要なサブアディティブ集合関数の学習において、既知の事前分布に基づき追加の値問い合わせ(オフラインおよびオンライン)を戦略的に選択することで、欠損値による最小・最大補完間の加法誤差を最小化する手法を提案し、その理論的性質と実効性を検証したものである。

Martin Černý, David Sychrovský, Filip Úradník, Jakub Černý2026-03-12🤖 cs.LG

How Large Language Models Get Stuck: Early structure with persistent errors

この論文は、大規模言語モデルが学習初期にバイグラム統計に基づく誤ったバイアスを形成し、それが学習を通じて解消されずに定着することで、文法判断タスクで持続的なエラーを引き起こす「早期構造と持続的誤り」という現象を、BabyLM 上の OPT モデルを用いた BLiMP ベンチマーク評価と質的・量的分析を通じて明らかにし、これを説明する「バイグラム仮説」を提唱している。

Alokesh Manna, William Snyder, Whitney Tabor2026-03-12💬 cs.CL

CARE: Towards Clinical Accountability in Multi-Modal Medical Reasoning with an Evidence-Grounded Agentic Framework

本論文は、臨床的な説明責任を高めるため、画像の特定領域を専門モデルで抽出し、それを証拠として活用して推論を行う「CARE」という、臨床ワークフローを模倣したマルチモーダル医療推論のためのエージェンティックフレームワークを提案し、既存の最先端モデルを上回る精度と信頼性を達成したことを示しています。

Yuexi Du, Jinglu Wang, Shujie Liu, Nicha C. Dvornek, Yan Lu2026-03-12🤖 cs.AI

CFG-Ctrl: Control-Based Classifier-Free Diffusion Guidance

本論文は、拡散モデルにおける Classifier-Free Guidance (CFG) を制御理論の観点から再解釈し、従来の線形制御に起因する不安定性やオーバーシュートを解消するため、スライディングモード制御を適用した「SMC-CFG」を提案し、多様なモデルにおいて高いセマンティック整合性とロバスト性を達成することを示しています。

Hanyang Wang, Yiyang Liu, Jiawei Chi, Fangfu Liu, Ran Xue, Yueqi Duan2026-03-12🤖 cs.LG

One Model, Many Skills: Parameter-Efficient Fine-Tuning for Multitask Code Analysis

本論文は、コード分析タスクにおけるマルチタスク学習とパラメータ効率型微調整(PEFT)を統合した初の包括的評価を行い、単一の共有 PEFT モジュールがフル微調整に匹敵する性能を発揮しつつ、ストレージや計算コストを大幅に削減できることを示し、さらにタスクの組み合わせやモデル構造が成功に与える影響を明らかにした。

Amal Akli, Maxime Cordy, Mike Papadakis, Yves Le Traon2026-03-12💻 cs