Beyond Barren Plateaus: A Scalable Quantum Convolutional Architecture for High-Fidelity Image Classification

本論文は、局所コスト関数とハードウェア効率的なテンソルネットワーク初期化戦略を用いてバレーン・プレートーを解決し、MNIST 画像分類で 98.7% の高精度を達成するとともに、同等の古典的 CNN よりも遥かに少ないパラメータで収束するスケーラブルな量子畳み込みニューラルネットワークを提案するものである。

Radhakrishnan Delhibabu2026-03-13🤖 cs.LG

Higher-Order Modular Attention: Fusing Pairwise and Triadic Interactions for Protein Sequences

この論文は、タンパク質配列におけるペアワイズ相互作用だけでなく、より複雑な三項相互作用を明示的に統合した「Higher-Order Modular Attention(HOMA)」を提案し、タンパク質の二次構造や安定性などの予測タスクにおいて、標準的な自己注意機構や既存の効率的な変種を上回る性能を達成したことを報告しています。

Shirin Amiraslani, Xin Gao2026-03-13🤖 cs.LG

Scaling Reasoning Efficiently via Relaxed On-Policy Distillation

本論文は、教師モデルからの報酬を柔軟に活用する「REOPOLD」というフレームワークを提案し、オンポリシー蒸留の不安定さを解消するとともに、数学や視覚、エージェントタスクにおいて従来の強化学習手法を凌駕するサンプル効率と推論時のスケーリング性能を実現することを示しています。

Jongwoo Ko, Sara Abdali, Young Jin Kim, Tianyi Chen, Pashmina Cameron2026-03-13🤖 cs.LG

Deep regression learning from dependent observations with minimum error entropy principle

本論文は、最小誤差エントロピー原理に基づく非ペナルティ化およびスパースペナルティ化深層ニューラルネットワークを用いて、強混合条件下の非パラメトリック回帰問題における期待過剰リスクの上限を導出し、ガウス誤差モデルにおいてSchmidtらによって確立された下限と一致する(対数因子を除く)最小最大収束率を達成することを示しています。

William Kengne, Modou Wade2026-03-13📊 stat

H2LooP Spark Preview: Continual Pretraining of Large Language Models for Low-Level Embedded Systems Code

本論文は、組み込みシステム分野の専門知識に特化した継続的事前学習パイプライン「H2LooP Spark Preview」を導入し、70 億パラメータのオープンモデルを低レベルコード生成において 300 億パラメータ級の大規模モデルや最先端モデルと同等以上の性能を発揮させることに成功したことを報告しています。

Amit Singh, Vedant Nipane, Pulkit Agrawal, Jatin Kishnani2026-03-13🤖 cs.LG

Attention Gathers, MLPs Compose: A Causal Analysis of an Action-Outcome Circuit in VideoViT

この論文は、VideoViT における「成功対失敗」の判断を担う因果回路をメカニズム的解釈手法で解明し、アテンションヘッドが証拠を集約し MLP ブロックが概念を構成するという分散型かつ冗長な回路構造が、単純な分類タスクを超えた隠れた知識の形成と AI の信頼性向上に不可欠であることを示しています。

Sai V R Chereddy2026-03-13🤖 cs.LG

Catalogue Grounded Multimodal Attribution for Museum Video under Resource and Regulatory Constraints

本論文は、リソースや規制の制約下で美術館の動画アーカイブの検索性を向上させるため、既存の作品データベースに基づき、ローカルで展開可能な動画言語モデルを用いて作品の要約、カタログ記述の生成、および保守的な類似性マッチングによる作品特定を行う自動化パイプラインを提案するものである。

Minsak Nanang, Adrian Hilton, Armin Mustafa2026-03-13🤖 cs.LG

Systematic Scaling Analysis of Jailbreak Attacks in Large Language Models

この論文は、大規模言語モデルに対するジャイルブレイク攻撃を計算リソースの関数として捉えるスケーリング法則の枠組みを提案し、最適化ベースや遺伝的アルゴリズムなどの多様な攻撃手法を比較評価することで、プロンプトベースの手法が計算効率と隠蔽性の点で優位であり、脆弱性が危害のタイプに強く依存することを明らかにしています。

Xiangwen Wang, Ananth Balashankar, Varun Chandrasekaran2026-03-13🤖 cs.LG

Algorithmic Capture, Computational Complexity, and Inductive Bias of Infinite Transformers

本論文は、無限幅トランスフォーマーが「アルゴリズム的キャプチャ(グロッキング)」を達成する能力を定義し、その推論時の計算量に上限があることを示すことで、効率的な多項式時間ヒューリスティックスキーム(EPTHS)に属する低複雑度アルゴリズムへの誘導バイアスが存在し、より高複雑度アルゴリズムの習得は困難であることを理論的に証明しています。

Orit Davidovich, Zohar Ringel2026-03-13🤖 cs.LG

Learning to Unscramble: Simplifying Symbolic Expressions via Self-Supervised Oracle Trajectories

この論文は、単純な数式をランダムに並べ替えて生成した自己教師ありオラクル軌跡を用いてトランスフォーマーベースの方策ネットワークを訓練し、高エネルギー物理学における複雑な数式の記号的簡化において、従来の強化学習や回帰手法を大幅に上回る高い成功率を達成する新しい手法を提案するものである。

David Shih2026-03-13⚛️ hep-th

Huntington Disease Automatic Speech Recognition with Biomarker Supervision

ハンチントン病の音声認識(ASR)において、高品質な臨床コーパスを用いた体系的な研究により、Parakeet-TDT アーキテクチャの優位性を示し、生体マーカーに基づく補助教師信号を用いることで誤り率を 6.99% から 4.95% まで改善する手法を提案し、コードとモデルをオープンソース化しました。

Charles L. Wang, Cady Chen, Ziwei Gong, Julia Hirschberg2026-03-13🤖 cs.LG

PACED: Distillation at the Frontier of Student Competence

この論文は、学生モデルの習熟度(正解率)が極端な問題に対する学習効率の低下という構造的な課題を理論的に解明し、その中間領域に学習を集中させる重み付け関数を用いた「PACED」という蒸留フレームワークを提案し、標準的なベンチマークで顕著な性能向上と忘却の抑制を実現したことを示しています。

Yuanda Xu, Hejian Sang, Zhengze Zhou, Ran He, Zhipeng Wang2026-03-13🤖 cs.AI

Bayesian Optimization of Partially Known Systems using Hybrid Models

この論文は、既知の物理モデルとガウス過程を組み合わせたハイブリッドモデルを用いたベイズ最適化手法を提案し、部分既知システムの最適化において、標準的なベイズ最適化よりもはるかに少ない試行回数で高品質な解を導出できることを示しています。

Eike Cramer, Luis Kutschat, Oliver Stollenwerk, Joel A. Paulson, Alexander Mitsos2026-03-13🤖 cs.LG

DNS-GT: A Graph-based Transformer Approach to Learn Embeddings of Domain Names from DNS Queries

本論文は、DNS クエリのシーケンスからドメイン名の埋め込みを学習する自己教師あり型トランスフォーマーモデル「DNS-GT」を提案し、ドメイン分類やボットネット検出などのタスクにおいて既存手法を上回る性能を実証したものである。

Massimiliano Altieri, Ronan Hamon, Roberto Corizzo, Michelangelo Ceci, Ignacio Sanchez2026-03-13🤖 cs.LG

Reference-Guided Machine Unlearning

本論文は、既存の近似学習忘却手法が抱える最適化の不安定さや汎化性能の低下という課題を解決するため、忘却データと真の未見データの分布を一致させることを目指し、保持された独立データセットを参照して蒸馏を行う「ReGUn」という新しい学習忘却フレームワークを提案し、その有効性を示しています。

Jonas Mirlach, Sonia Laguna, Julia E. Vogt2026-03-13🤖 cs.LG

Security-by-Design for LLM-Based Code Generation: Leveraging Internal Representations for Concept-Driven Steering Mechanisms

この論文は、コード生成用大規模言語モデル(LLM)が脆弱性を生成する際にも内部でセキュリティ概念を認識していることを発見し、その内部表現を操作して安全かつ機能的なコード生成を誘導する軽量かつモジュール型の手法「SCS-Code」を提案し、既存の最先端手法を上回る性能を実証したものである。

Maximilian Wendlinger, Daniel Kowatsch, Konstantin Böttinger, Philip Sperl2026-03-13🤖 cs.LG

Measuring AI Agents' Progress on Multi-Step Cyber Attack Scenarios

この論文は、2024 年 8 月から 2026 年 2 月にかけてリリースされた 7 種類の最先端 AI モデルが、企業ネットワークや産業制御システムを対象とした多段階サイバー攻撃シナリオにおいて、推論時の計算リソースの増加とモデル世代の進化に伴い、人間専門家の約 6 時間に相当する 32 段階中の 22 段階を達成するなど、顕著な能力向上を示したことを報告しています。

Linus Folkerts, Will Payne, Simon Inman, Philippos Giavridis, Joe Skinner, Sam Deverett, James Aung, Ekin Zorer, Michael Schmatz, Mahmoud Ghanem, John Wilkinson, Alan Steer, Vy Hong, Jessica Wang2026-03-13🤖 cs.AI