LatentMem: Customizing Latent Memory for Multi-Agent Systems
本論文は、LLM 駆動のマルチエージェントシステムにおける記憶の均質化と情報過多という課題を解決するため、エージェント固有の文脈に合わせたコンパクトな潜在記憶を生成する学習可能なフレームワーク「LatentMem」と、その最適化手法「LMPO」を提案し、既存のアーキテクチャを改変せずにも大幅な性能向上を実現したことを示しています。
1071 件の論文
本論文は、LLM 駆動のマルチエージェントシステムにおける記憶の均質化と情報過多という課題を解決するため、エージェント固有の文脈に合わせたコンパクトな潜在記憶を生成する学習可能なフレームワーク「LatentMem」と、その最適化手法「LMPO」を提案し、既存のアーキテクチャを改変せずにも大幅な性能向上を実現したことを示しています。
この論文は、自然言語処理を用いて要件定義から構造的ネットワークを抽出し、分子統合タスクを用いた実験により、そのスペクトル指標が統合工数を 0.95 以上の相関で予測できることを実証し、要件段階の複雑性評価における新たな手法を確立したものである。
この論文は、LLM の内部層間の不一致を検出するメトリクスを用いて推論時にハルシネーションを抑制する新しいデコーディングアルゴリズム「CoCoA」を提案し、モデルの再学習なしに事実性の高い出力を実現することを示しています。
LLM の推論能力と記号的世界モデルの論理的整合性を組み合わせ、相互に補完するトレーニングと確率分布の直接修正を通じて、世界モデルの予測精度とデータ効率を大幅に向上させる「Neuro-Symbolic Synergy (NeSyS)」というフレームワークを提案する論文です。
この論文は、意味的な順序手がかりが乏しいオランダの自由情報開示文書(WOO)のページ順序復元タスクにおいて、セグメント長が長い場合のシーケンス・ツー・シーケンス変換器の一般化失敗やカリキュラム学習の限界を明らかにし、モデルの専門化によって長文書での性能を大幅に向上させることを示しています。
この論文は、大規模な回答データに依存せず、質問項目のセマンティック構造を自然言語処理技術を用いて分析・クラスタリングすることで、心理尺度の項目数を平均 60.5% 削減しつつも元の構成概念や心理計測特性を維持する効率的な簡素化フレームワークを提案し、その有効性を複数の尺度で実証したものである。
この論文は、エリニア語学習者の文章の CEFR レベルを予測するために、解釈可能性と汎用性を高めるよう慎重に選択された言語特徴を用いた機械学習モデルを構築し、その精度が約 0.9 に達することを確認するとともに、その成果をオープンソースの言語学習環境に実装したことを報告しています。
本論文は、LLM のハルシネーションを埋め込み空間の幾何学的特性に基づいて「不忠実性」「虚構」「事実誤認」の 3 種類に分類し、それぞれに対応する検出指標(SGI と DGI)を提案するとともに、TruthfulQA における分類性能の限界が事実誤認の検出ではなくスタイルの偏りに起因することを明らかにしています。
この論文は、コード生成が強化学習よりも信頼性高く進展した理由を、コードが持つ密で局所的かつ検証可能なフィードバックという情報構造に求め、計算問題の「表現可能性」「計算可能性」「学習可能性」の 3 特性を階層的に整理し、機械学習の進展の上限が単なるモデルの規模ではなく、タスク自体の学習可能性に依存することを示唆しています。
本論文は、LLM の微調整データセットにおけるトークンレベルのノイズを「推論の重要性」「知識の新規性」「タスクの関連性」という 3 つの属性に分解して評価し、ノイズとなるトークンの勾配をマスクすることで微調整後のモデル性能を最大 13.7% 向上させる、説明可能なトークンレベルノイズフィルタリングフレームワーク「XTF」を提案しています。
この論文は、人間のエピソード記憶メカニズムに着想を得て、意味の要約(Semantic Gist)の抽出と進化、多次元知識グラフ、および拡散型検索を組み合わせた新しい RAG フレームワーク「CogitoRAG」を提案し、複雑な知識統合や推論において既存の最先端手法を上回る性能を実証したものである。
本論文は、ポアンカレ球埋め込みを用いたモダリティ階層の表現と双方向メッセージ伝達によるハイパーグラフ融合、および双曲空間における対照学習を組み合わせた「Emotion Collider(EC-Net)」を提案し、ノイズやモダリティ欠損に対して頑健で高精度な多モーダル感情認識を実現することを示しています。
本論文は、トレーニング中に意図的に特定のモダリティ情報を破壊的に縮小させることで、入力チャネルの欠損や破損に対して頑健なマルチモーダル表現を学習する「ModalImmune」というフレームワークを提案し、その有効性を示しています。
本論文は、患者の条件に依存する臨床推論を評価する初のベンチマーク「CondMedQA」を提案し、クエリの条件に基づいて知識グラフの推論経路を選択的に活性化・剪定する「条件ゲート型推論(CGR)」フレームワークを開発することで、医療QAにおける条件依存性の明示的なモデル化の重要性を実証しています。
ModernBERT 基盤の多言語エンコーダ「MrBERT」は、35 言語とコードの事前学習、Matryoshka 表現学習による柔軟な次元適応、および特定ドメインへの最適化を通じて、地域言語の卓越性と専門分野での高性能、そして推論・保存コストの削減を同時に実現するモデルファミリーを提案し、Hugging Face でオープンソース化されています。
CeRA は、SiLU ゲーティングと構造的ドロップアウトを併用して多様体を拡張し、低ランク適応(LoRA)が抱える線形性の限界を打破し、複雑な推論タスクにおいて極めて高いスペクトル効率を実現するパラメータ効率型ファインチューニング手法です。
本論文は、KV キャッシュの非対称性をスペクトルエネルギー分布に基づいて理論的に解明し、勾配不要かつ閉形式解を持つ効率的なアルゴリズム「KVSlimmer」を提案することで、LLM の推論メモリと遅延を削減しつつ性能を向上させることを目指しています。
本論文は、構造化された医薬品ラベルと自由記述の放射線レポートという異なる臨床ドメインにおいて、LLM の抽出結果に対する信頼性の方向性が逆転することを発見し、ドメイン固有のコンフォーマル予測フレームワークを用いて、いずれの領域でも安全な臨床展開を可能にする有限サンプルの被覆保証を実現したことを報告しています。
この論文は、LLM 評価におけるシステマティックなバイアスを、追加コストなしで単一評価と同等のコストで正確に除去し、最適なランキングを実現する「CyclicJudge」というラウンドロビン方式の割り当て手法を提案し、その有効性を MT-Bench や MindEval などのベンチマークで実証したものです。
本論文は、医師と患者の会話から得られる機密情報を保護しつつ医療対話システムを調整するための、教師あり微調整から報酬モデル学習、方策最適化まで一貫して差分プライバシーを適用した「PrivMedChat」というエンドツーエンドのフレームワークを提案し、専門家のラベル付けを不要とするアノテーション不要の選好構築戦略を併せて導入したことを示しています。