ViTaPEs: Visuotactile Position Encodings for Cross-Modal Alignment in Multimodal Transformers

本論文は、視覚と触覚のモダリティを効果的に融合し、タスクに依存しない汎用的な表現学習とゼロショット一般化を実現するために、局所および大域の位置符号化を段階的に注入するトランスフォーマーベースのアーキテクチャ「ViTaPEs」を提案し、実世界データセットおよびロボティクスタスクにおいて最先端の性能を示すことを報告しています。

Fotios Lygerakis, Ozan Özdenizci, Elmar Rückert2026-03-10🤖 cs.LG

LoFT: Low-Rank Adaptation That Behaves Like Full Fine-Tuning

本論文は、オプティマイザの内部ダイナミクス(モーメントと分散)を低ランク部分空間に適切に射影することで、フルファインチューニングと同等の性能を達成し、追加のハイパーパラメータ調整を不要にした新たな低ランク適応手法「LoFT」を提案しています。

Nurbek Tastan, Stefanos Laskaridis, Martin Takac, Karthik Nandakumar, Samuel Horvath2026-03-10🤖 cs.LG

Rethinking Continual Learning with Progressive Neural Collapse

この論文は、カタストロフィック・フォージングを軽減するために固定されたグローバルな ETF に依存せず、新たなタスクに応じて ETF 目標を体系的に拡張する「Progressive Neural Collapse(ProNC)」という新たな継続学習フレームワークを提案し、既存手法を大幅に上回る性能と柔軟性を実現したことを報告しています。

Zheng Wang, Wanhao Yu, Li Yang, Sen Lin2026-03-10🤖 cs.LG

ActivePusher: Active Learning and Planning with Residual Physics for Nonprehensile Manipulation

この論文は、非把持操作における学習ベースの動的モデルのデータ収集効率と長期計画の信頼性を向上させるため、残差物理学モデルと不確実性に基づく能動学習を統合した「ActivePusher」という新規フレームワークを提案し、シミュレーションおよび実世界環境での有効性を実証しています。

Zhuoyun Zhong, Seyedali Golestaneh, Constantinos Chamzas2026-03-10🤖 cs.LG

MMTU: A Massive Multi-Task Table Understanding and Reasoning Benchmark

本論文は、表形式データの理解・推論・操作に関する専門家のレベルを包括的に評価するため、25 の実世界タスクと 2 万 8 千以上の質問からなる大規模ベンチマーク「MMTU」を提案し、最先端のモデルでも高い性能が求められていることを示しています。

Junjie Xing, Yeye He, Mengyu Zhou, Haoyu Dong, Shi Han, Lingjiao Chen, Dongmei Zhang, Surajit Chaudhuri, H. V. Jagadish2026-03-10🤖 cs.LG

Leveraging chaotic transients in the training of artificial neural networks

この論文は、学習率を意図的に大きく設定することで勾配降下法が「探索と利用のバランス」を取る過渡的カオス領域に遷移し、初期条件への敏感な依存性(正の最大リアプノフ指数)を示しながらも、MNIST などの多様なタスクやアーキテクチャにおいてテスト精度への収束時間を最小化し、人工ニューラルネットワークの学習を加速できることを示しています。

Pedro Jiménez-González, Miguel C. Soriano, Lucas Lacasa2026-03-10🤖 cs.LG

EROICA: Online Performance Troubleshooting for Large-scale Model Training

本論文は、大規模モデル学習の性能問題を診断するために、プロファイリングに基づく微細な観測と全 GPU クラスタの網羅的カバレッジを備えた初のオンライントラブルシューティングシステム「EROICA」を提案し、約 10 万 GPU の大規模環境で 1 年半にわたり稼働し、97.5% の成功率で多様な性能問題を特定したことを報告するものである。

Yu Guan, Zhiyu Yin, Haoyu Chen, Sheng Cheng, Chaojie Yang, Kun Qian, Tianyin Xu, Pengcheng Zhang, Yang Zhang, Hanyu Zhao, Yong Li, Wei Lin, Dennis Cai, Ennan Zhai2026-03-10🤖 cs.LG

BemaGANv2: Discriminator Combination Strategies for GAN-based Vocoders in Long-Term Audio Generation

本論文は、AMP モジュールと新規の Multi-Envelope Discriminator を導入し、長尺音声生成における時間的整合性や周期性のモデル化を強化した GAN ベースのボコーダ「BemaGANv2」を提案し、各種識別器の組み合わせ戦略を客観的・主観的指標を用いて体系的に評価したものである。

Taesoo Park, Mungwi Jeong, Mingyu Park, Narae Kim, Junyoung Kim, Mujung Kim, Jisang Yoo, Hoyun Lee, Sanghoon Kim, Soonchul Kwon2026-03-10🤖 cs.LG

Co-LoRA: Collaborative Model Personalization on Heterogeneous Multi-Modal Clients

この論文は、データとモデルの両方の異質性に対処し、タスク関連性を考慮した集約戦略と次元不変モジュール「Co-LoRA」を導入することで、現実的な多モーダル環境におけるパーソナライズド連合学習の性能を大幅に向上させる手法を提案し、40 のタスクを含む新しいベンチマークでその有効性を示しています。

Minhyuk Seo, Taeheon Kim, Hankook Lee, Jonghyun Choi, Tinne Tuytelaars2026-03-10🤖 cs.LG

Efficient Algorithms for Logistic Contextual Slate Bandits with Bandit Feedback

本論文は、指数級数の候補スレートから単一の二値報酬のみが観測されるロジスティック文脈スレートバンドット問題に対し、局所計画と大域的学習を組み合わせることで、低計算コストかつ低後悔を実現する効率的なアルゴリズムを提案し、理論的保証と実証実験、ならびに言語モデルの文脈例選択への応用を通じてその有効性を示しています。

Tanmay Goyal, Gaurav Sinha2026-03-10🤖 cs.LG

Kolmogorov-Arnold Energy Models: Fast, Interpretable Generative Modeling

この論文は、Kolmogorov-Arnold 表現定理に基づく新しい生成モデル「KAEM」を提案し、逆変換法による高速かつ正確な推論と、重要性サンプリングやアンニリング戦略を用いた効率的な事後推論を通じて、VAE の効率性と拡散モデルの表現力を両立させつつ、潜在空間の解釈可能性を向上させることを示しています。

Prithvi Raj2026-03-10🤖 cs.LG

From Semantic To Instance: A Semi-Self-Supervised Learning Approach

この論文は、農業分野における密集・自己遮蔽物体のインスタンスセグメンテーション課題を解決するため、最小限の人手注釈で形状やテクスチャに焦点を当てた「GLMask」を用いた半自己教師あり学習アプローチを提案し、小麦の穂の検出で mAP@50 98.5% の最高精度を達成したことを報告しています。

Keyhan Najafian, Farhad Maleki, Lingling Jin, Ian Stavness2026-03-10🤖 cs.LG

Adaptive Batch-Wise Sample Scheduling for Direct Preference Optimization

本論文は、大規模言語モデルの学習状態に応じてバッチごとに訓練サンプルを動的に選択する新しいアルゴリズム「SamS」を提案し、DPO のコアアルゴリズムを変更することなく、計算コストを最小限に抑えつつモデルの汎化性能を大幅に向上させることを示しています。

Zixuan Huang, Yikun Ban, Lean Fu, Xiaojie Li, Zhongxiang Dai, Jianxin Li, Deqing Wang2026-03-10🤖 cs.LG

Noisy PDE Training Requires Bigger PINNs

この論文は、ノイズを含むデータを用いた物理情報ニューラルネットワーク(PINN)の学習において、誤差をノイズ分散以下に抑えるためにはネットワーク規模が一定の閾値を超えて大きくする必要があることを、ハミルトン・ヤコビ・ベルマン方程式などを用いた理論的解析と実験で実証しています。

Sebastien Andre-Sloan, Anirbit Mukherjee, Matthew Colbrook2026-03-10🤖 cs.LG

Towards Practical Benchmarking of Data Cleaning Techniques: On Generating Authentic Errors via Large Language Models

本論文は、大規模言語モデルを用いて表データに実在の誤りを生成するフレームワーク「TableEG」を提案し、これにより合成データと実世界データの誤り分布のギャップを埋め、データクレンジング手法の信頼性あるベンチマーク確立を実現したことを示しています。

Xinyuan Liu, Jiahui Chen, Bocheng Hu, Yu Sun, Xinyang Chen, Shaoxu Song, Yongxin Tong2026-03-10🤖 cs.LG