MMTU: A Massive Multi-Task Table Understanding and Reasoning Benchmark

本論文は、表形式データの理解・推論・操作に関する専門家のレベルを包括的に評価するため、25 の実世界タスクと 2 万 8 千以上の質問からなる大規模ベンチマーク「MMTU」を提案し、最先端のモデルでも高い性能が求められていることを示しています。

Junjie Xing, Yeye He, Mengyu Zhou, Haoyu Dong, Shi Han, Lingjiao Chen, Dongmei Zhang, Surajit Chaudhuri, H. V. Jagadish2026-03-10🤖 cs.LG

Leveraging chaotic transients in the training of artificial neural networks

この論文は、学習率を意図的に大きく設定することで勾配降下法が「探索と利用のバランス」を取る過渡的カオス領域に遷移し、初期条件への敏感な依存性(正の最大リアプノフ指数)を示しながらも、MNIST などの多様なタスクやアーキテクチャにおいてテスト精度への収束時間を最小化し、人工ニューラルネットワークの学習を加速できることを示しています。

Pedro Jiménez-González, Miguel C. Soriano, Lucas Lacasa2026-03-10🤖 cs.LG

EROICA: Online Performance Troubleshooting for Large-scale Model Training

本論文は、大規模モデル学習の性能問題を診断するために、プロファイリングに基づく微細な観測と全 GPU クラスタの網羅的カバレッジを備えた初のオンライントラブルシューティングシステム「EROICA」を提案し、約 10 万 GPU の大規模環境で 1 年半にわたり稼働し、97.5% の成功率で多様な性能問題を特定したことを報告するものである。

Yu Guan, Zhiyu Yin, Haoyu Chen, Sheng Cheng, Chaojie Yang, Kun Qian, Tianyin Xu, Pengcheng Zhang, Yang Zhang, Hanyu Zhao, Yong Li, Wei Lin, Dennis Cai, Ennan Zhai2026-03-10🤖 cs.LG

BemaGANv2: Discriminator Combination Strategies for GAN-based Vocoders in Long-Term Audio Generation

本論文は、AMP モジュールと新規の Multi-Envelope Discriminator を導入し、長尺音声生成における時間的整合性や周期性のモデル化を強化した GAN ベースのボコーダ「BemaGANv2」を提案し、各種識別器の組み合わせ戦略を客観的・主観的指標を用いて体系的に評価したものである。

Taesoo Park, Mungwi Jeong, Mingyu Park, Narae Kim, Junyoung Kim, Mujung Kim, Jisang Yoo, Hoyun Lee, Sanghoon Kim, Soonchul Kwon2026-03-10🤖 cs.LG

Co-LoRA: Collaborative Model Personalization on Heterogeneous Multi-Modal Clients

この論文は、データとモデルの両方の異質性に対処し、タスク関連性を考慮した集約戦略と次元不変モジュール「Co-LoRA」を導入することで、現実的な多モーダル環境におけるパーソナライズド連合学習の性能を大幅に向上させる手法を提案し、40 のタスクを含む新しいベンチマークでその有効性を示しています。

Minhyuk Seo, Taeheon Kim, Hankook Lee, Jonghyun Choi, Tinne Tuytelaars2026-03-10🤖 cs.LG

Efficient Algorithms for Logistic Contextual Slate Bandits with Bandit Feedback

本論文は、指数級数の候補スレートから単一の二値報酬のみが観測されるロジスティック文脈スレートバンドット問題に対し、局所計画と大域的学習を組み合わせることで、低計算コストかつ低後悔を実現する効率的なアルゴリズムを提案し、理論的保証と実証実験、ならびに言語モデルの文脈例選択への応用を通じてその有効性を示しています。

Tanmay Goyal, Gaurav Sinha2026-03-10🤖 cs.LG

Kolmogorov-Arnold Energy Models: Fast, Interpretable Generative Modeling

この論文は、Kolmogorov-Arnold 表現定理に基づく新しい生成モデル「KAEM」を提案し、逆変換法による高速かつ正確な推論と、重要性サンプリングやアンニリング戦略を用いた効率的な事後推論を通じて、VAE の効率性と拡散モデルの表現力を両立させつつ、潜在空間の解釈可能性を向上させることを示しています。

Prithvi Raj2026-03-10🤖 cs.LG

From Semantic To Instance: A Semi-Self-Supervised Learning Approach

この論文は、農業分野における密集・自己遮蔽物体のインスタンスセグメンテーション課題を解決するため、最小限の人手注釈で形状やテクスチャに焦点を当てた「GLMask」を用いた半自己教師あり学習アプローチを提案し、小麦の穂の検出で mAP@50 98.5% の最高精度を達成したことを報告しています。

Keyhan Najafian, Farhad Maleki, Lingling Jin, Ian Stavness2026-03-10🤖 cs.LG

Adaptive Batch-Wise Sample Scheduling for Direct Preference Optimization

本論文は、大規模言語モデルの学習状態に応じてバッチごとに訓練サンプルを動的に選択する新しいアルゴリズム「SamS」を提案し、DPO のコアアルゴリズムを変更することなく、計算コストを最小限に抑えつつモデルの汎化性能を大幅に向上させることを示しています。

Zixuan Huang, Yikun Ban, Lean Fu, Xiaojie Li, Zhongxiang Dai, Jianxin Li, Deqing Wang2026-03-10🤖 cs.LG

Noisy PDE Training Requires Bigger PINNs

この論文は、ノイズを含むデータを用いた物理情報ニューラルネットワーク(PINN)の学習において、誤差をノイズ分散以下に抑えるためにはネットワーク規模が一定の閾値を超えて大きくする必要があることを、ハミルトン・ヤコビ・ベルマン方程式などを用いた理論的解析と実験で実証しています。

Sebastien Andre-Sloan, Anirbit Mukherjee, Matthew Colbrook2026-03-10🤖 cs.LG

Towards Practical Benchmarking of Data Cleaning Techniques: On Generating Authentic Errors via Large Language Models

本論文は、大規模言語モデルを用いて表データに実在の誤りを生成するフレームワーク「TableEG」を提案し、これにより合成データと実世界データの誤り分布のギャップを埋め、データクレンジング手法の信頼性あるベンチマーク確立を実現したことを示しています。

Xinyuan Liu, Jiahui Chen, Bocheng Hu, Yu Sun, Xinyang Chen, Shaoxu Song, Yongxin Tong2026-03-10🤖 cs.LG

A Robust Incomplete Multimodal Low-Rank Adaptation Approach for Emotion Recognition

本論文は、センサー故障やプライバシー保護により生じる不完全なマルチモーダルデータの問題に対処するため、モダリティ組合せごとの共有情報と固有特徴を分離し、表現空間の分離性に基づいて動的に学習比率を調整する新しいパラメータ効率型学習フレームワーク「MCULoRA」を提案し、感情認識タスクにおいて既存手法を上回る性能を達成したことを示しています。

Xinkui Zhao, Jinsong Shu, Yangyang Wu, Guanjie Cheng, Zihe Liu, Naibo Wang, Shuiguang Deng, Zhongle Xie, Jianwei Yin2026-03-10💻 cs

Let's Think in Two Steps: Mitigating Agreement Bias in MLLMs with Self-Grounded Verification

本論文は、マルチモーダル大規模言語モデル(MLLM)がエージェントの行動を過剰に肯定する「同意バイアス」を特定し、自己生成された事前知識に基づいて検証を行う軽量手法「SGV」を提案することで、タスク完了率や精度を大幅に向上させることを示しています。

Moises Andrade, Joonhyuk Cha, Brandon Ho, Vriksha Srihari, Karmesh Yadav, Zsolt Kira2026-03-10🤖 cs.LG

Flow Matching Meets Biology and Life Science: A Survey

この論文は、生物学的配列モデリング、分子生成・設計、ペプチドおよびタンパク質生成の 3 つの主要分野におけるフローマッチングの基礎、応用、データセット、ツール、および将来の展望を網羅的に調査した初の包括的なサーベイである。

Zihao Li, Zhichen Zeng, Xiao Lin, Feihao Fang, Yanru Qu, Zhe Xu, Zhining Liu, Xuying Ning, Tianxin Wei, Ge Liu, Hanghang Tong, Jingrui He2026-03-10🤖 cs.LG

Weak-to-Strong Generalization with Failure Trajectories: A Tree-based Approach to Elicit Optimal Policy in Strong Models

この論文は、弱モデルが生成した成功だけでなく失敗の軌跡も活用し、木構造とモンテカルロ木探索を組み合わせて強化学習を行うことで、複雑な意思決定タスクにおける弱モデルから強モデルへの一般化性能を飛躍的に向上させる新たな手法を提案しています。

Ruimeng Ye, Zihan Wang, Yang Xiao, Zinan Ling, Manling Li, Bo Hui2026-03-10🤖 cs.LG

Exposing the Illusion of Fairness: Auditing Vulnerabilities to Distributional Manipulation Attacks

この論文は、EU AI 法などの規制下におけるバイアス監査の脆弱性を示し、不公正なデータ分布から公平性を満たすかのように見せかける操作可能なサンプルを構築する攻撃手法を定式化し、その検出を強化するための統計的テストと実用的なガイドラインを提案するものである。

Valentin Lafargue, Adriana Laurindo Monteiro, Emmanuelle Claeys, Laurent Risser, Jean-Michel Loubes2026-03-10🤖 cs.LG

Beyond Benchmarks: Dynamic, Automatic And Systematic Red-Teaming Agents For Trustworthy Medical Language Models

本論文は、静的ベンチマークが臨床現場での信頼性を過大評価する「ベンチマークギャップ」を明らかにし、医療用大規模言語モデルの安全性を評価するために、頑健性、プライバシー、公平性、幻覚の 4 つの軸で動的かつ自動的なレッドチームングを行う「DAS」フレームワークを提案しています。

Jiazhen Pan (Cherise), Bailiang Jian (Cherise), Paul Hager (Cherise), Yundi Zhang (Cherise), Che Liu (Cherise), Friedrike Jungmann (Cherise), Hongwei Bran Li (Cherise), Chenyu You (Cherise), Junde Wu (Cherise), Jiayuan Zhu (Cherise), Fenglin Liu (Cherise), Yuyuan Liu (Cherise), Niklas Bubeck (Cherise), Christian Wachinger (Cherise), Chen (Cherise), Chen (Cherise), Zhenyu Gong, Cheng Ouyang, Georgios Kaissis, Benedikt Wiestler, Daniel Rueckert2026-03-10🤖 cs.LG