Boltzmann-based Exploration for Robust Decentralized Multi-Agent Planning (Extended Version)
この論文は、疎な報酬環境や欺瞞的なシナリオにおいて従来の分散モンテカルロ木探索(Dec-MCTS)よりも優れた性能を発揮するよう、確率的なボルツマン方策と減衰エントロピーボーナスを導入した協調ボルツマン MCTS(CB-MCTS)を提案し、その有効性をシミュレーションで実証したものである。
2223 件の論文
この論文は、疎な報酬環境や欺瞞的なシナリオにおいて従来の分散モンテカルロ木探索(Dec-MCTS)よりも優れた性能を発揮するよう、確率的なボルツマン方策と減衰エントロピーボーナスを導入した協調ボルツマン MCTS(CB-MCTS)を提案し、その有効性をシミュレーションで実証したものである。
この論文は、企業の文書から文脈を抽出し、LLM を活用してニュースをマクロ・セクター・関連企業・対象企業の 4 段階に分類する意味ベースの多段階ペアリング手法を提案し、これにより従来のキーワードマッチングでは捉えきれなかった複雑な市場依存関係を反映した高品質な金融テキスト対時系列データセット「FinTexTS」を構築し、株価予測の精度向上を実証したものである。
この論文は、近隣ロボット間の空間的距離を明示的に組み込んだ新しい通信メカニズム「RMHA」を提案し、高密度環境における分散型多ロボット経路計画の成功率を大幅に向上させることを示しています。
この論文は、ハードウェア変更を伴わずにオーバーフロー感知スケーリングとマクロブロックスケーリングという 2 つのソフトウェア技術を導入することで、MXFP4 の量子化精度を大幅に向上させ、NVIDIA の NVFP4 との精度差を約 10% から 1% 未満に縮小し、MXFP4 を実用的な代替手段として再確立したことを示しています。
この論文は、219 語の要件定義書から自律的に動作し、1.48GHz で動作する RISC-V CPU「VerCore」の RTL 設計から GDSII レイアウトファイルまでの半導体製造を 12 時間で完了させた自律エージェント「Design Conductor」の成果を報告するものです。
本論文は、大規模言語モデル(LLM)がハードウェア設計の機能性を維持しつつ電力・性能・面積(PPA)を改善するリポジトリレベルの RTL 進化を評価するためのベンチマーク「CktEvo」と、ツールチェーンからのフィードバックを用いた自動改善フレームワークを提案し、実用的な設計最適化への道筋を示すものである。
この論文は、コストやプライバシーの懸念を回避しつつ機能的な正確性を高めるため、テストベンチ駆動の検証とデバッグ推論を組み合わせたマルチエージェントフレームワーク「SiliconMind-V1」を提案し、ローカルで微調整された大規模言語モデルが RTL 設計を反復的に生成・検証・修正できることを示しています。
本論文は、リソース制約のある組込みシステム向けに、ターゲットプラットフォームへの実装なしに混合精度量子化ニューラルネットワークの推論における精度、レイテンシ、リソース消費のトレードオフを評価・分析できる設計空間推論分析フレームワーク「ALADIN」を提案し、RISC-V ベースの AI ワークロード専用プラットフォームのサイクル正確なシミュレータを用いた検証を通じてその有効性を示したものである。
この論文は、大規模言語モデルの集団的行動において、安全対策としてのアライメント技術そのものが、特に検閲が不可視であったり制約が複雑であったりする場合に、意図しない集団的病理(iatrogenic harm)を誘発する可能性を示唆する予備的証拠を提示しています。
この論文は、深層学習ハードウェアアクセラレータの信頼性評価と強化のための新規かつ低コストな手法(包括的な文献レビューに基づく分析ツール、信頼性・量子化・近似のトレードオフ最適化、ゼロオーバーヘッドの AdAM 技術など)を提案し、学術界および産業界に多大な貢献をした博士論文の成果を要約しています。
本論文は、LLM の長文脈推論における KV キャッシュのメモリ制約を解決するため、再学習やアーキテクチャ変更なしで、レイヤごとの注意動力学とトークンの重要度に基づき動的に精度レベルを割り当てる適応型フレームワーク「ARKV」を提案し、メモリ使用量を 4 分の 1 に削減しながら基線モデルの精度を約 97% 維持することを示しています。
本論文は、超伝導およびイオントラップ方式の量子プロセッサにおけるシミュレーションと実機評価を通じて、測定を伴わない「ブラインド・リセット」手法が、論理サイクルのレイテンシを最大 38 倍削減しつつ、十分なアンシラ清浄度を維持して誤り訂正の効率化を実現できることを示しています。
本論文は、エッジコンピューティング環境におけるフェデレーテッドラーニングの手法を体系的にレビューし、SCAFFOLD や FedAvg などの主要アルゴリズムを精度や通信効率などの観点からベンチマーク評価することで、データ異質性やエネルギー制約といった課題を明らかにし、将来の研究指針を提示している。
この論文は、クラウド依存の遅延や信頼性課題を克服し、EV 充電インフラの故障を自律的に解決するために、エッジ環境に配置された AI エージェント「Auralink SDC」のアーキテクチャと実装、およびその高い解決率と低遅延性能を提示するものです。
この論文は、感度に基づく剪定メカニズムを活用して量子化と剪定を組み合わせることで、リザーバーコンピューティングのハードウェア効率を大幅に向上させながら精度を維持する圧縮フレームワークを提案し、FPGA 実装における検証結果を示しています。
この論文は、深層学習の需要増大に伴う計算リソースの課題に対し、ASIC や GPU の限界を補完する柔軟性と高効率を兼ね備えた FPGA ベースの AI アクセラレータの設計手法、最適化技術、および現状の課題と将来展望を包括的にレビューしたものである。
本論文は、推論中の KV キャッシュによるメモリボトルネックを解決し、大規模数学的推論タスクにおいてフル KV 推論エンジンと同等の性能の約 95% を維持しつつ 2.1 倍以上の高速化を実現する、トークン単位の KV キャッシュ削除と PagedAttention を組み合わせた「Compressed PagedAttention」および高並列 LLM 推論エンジン「Zipage」を提案するものである。
本論文は、Qwen2.5 の 3 つのモデルサイズを対象に MXFP4 と NVFP4 形式を用いた層別・ブロック別の感度分析を行い、MLP のアップ/ダウン投影層が最も感度が高く、感度の高いブロックは最終層に限定されず初期層にも存在し得ることを明らかにした。
本論文は、多変量時系列の交換性を保証する理論的枠組みに基づき、変数間の順序依存性を排除し、局所ダイナミクスとグローバルな相互作用に分解することで、予測・分類・異常検出において最先端の性能と構造的なスケーラビリティを実現する「VI 2D Mamba」という新しいアーキテクチャを提案しています。
この論文は、長期タスクにおけるスパースな報酬によるクレジット割り当ての課題を解決するため、LLM 自体を事後批評として活用してステップレベルの Q 値を精緻化する「HCAPO」という新しいフレームワークを提案し、WebShop や ALFWorld などのベンチマークにおいて既存の GRPO 法を上回る性能向上を実現したことを報告しています。