HateMirage: An Explainable Multi-Dimensional Dataset for Decoding Faux Hate and Subtle Online Abuse
この論文は、誤情報に基づく巧妙なヘイトスピーチの分析を可能にするため、3 つの解釈可能な次元(対象、意図、含意)で注釈付けされた新しい多面的データセット「HateMirage」を提案し、説明可能な AI 研究における新たな基準を確立することを目的としています。
2026 件の論文
この論文は、誤情報に基づく巧妙なヘイトスピーチの分析を可能にするため、3 つの解釈可能な次元(対象、意図、含意)で注釈付けされた新しい多面的データセット「HateMirage」を提案し、説明可能な AI 研究における新たな基準を確立することを目的としています。
本論文は、LLM ベースのマルチエージェントシステムにおける通信トポロジー学習の不安定さと課題を解決するため、単一サンプルの絶対報酬に代わり、グループ内での相対的な性能に基づいてエッジの優位性を評価する「Graph-GRPO」という新しい最適化フレームワークを提案し、実験によりその有効性を実証したものである。
本論文は、製品レビューから大規模言語モデルを用いて抽出した感覚的属性を蒸留し、SASRec などの逐次推薦モデルに統合することで、行動パターンを補完し推薦精度と解釈可能性を向上させる新しいフレームワーク「ASEGR」を提案しています。
この論文は、拡散言語モデル(dLLMs)の生成品質を効率的に評価し、適応的な長さ制御を可能にするため、生成されたシーケンス全体のトークンを再生成する確率に基づいて自信を定量化する手法「DiSE」を提案し、その有効性を検証したものです。
本論文は、LLM の数学指導能力を包括的に評価するための新しいベンチマーク「KMP-Bench」と大規模対話データセット「KMP-Pile」を提案し、最先端モデルが正解導出は得意だが教育的原則の適用に課題を抱えていること、そして教育的に豊かなデータによる微調整が効果的な AI 指導者開発に不可欠であることを示しています。
本論文は、大規模な実世界データセットを用いたベンチマークと自動階層化エラー分析を通じて、強力なマルチモーダル大規模言語モデル(MLLM)は従来の OCR 処理を伴う手法と同等のドキュメント情報抽出性能を画像入力のみで達成し得ることを示し、スキーマや指示の設計がその性能向上に重要であることを明らかにした。
この論文は、臨床診断などの高リスク分野における LLM エージェントの判断を検証するために、専門家のガイドラインに基づき証拠を蓄積・集約し、ベイズ回帰で較正された確率を生成する「GLEAN」という検証フレームワークを提案し、その有効性を実証したものである。
本論文は、学習者の回答予測という特定の教育タスクにおいて、大規模言語モデル(LLM)よりも専門的な知識追跡モデルの方が、精度、推論速度、コストの面で優れていることを示しています。
本論文は、音素頻度分布がマクロ的には対称ディリクレ分布の順序統計量として、ミクロ的には発音・音韻・語彙の制約を組み合わせた最大エントロピーモデルとして説明可能であることを示し、これにより音素頻度構造の統合的な情報理論的記述を提供している。
大規模視覚言語モデル(LVLM)は、ノードや構造的特徴は視覚エンコーダ内で早期に線形に表現される一方で、エッジ情報は言語モデルのテキストトークン段階まで遅れて現れるため、関係性の理解に課題を抱えていることを、合成図データセットを用いた内部表現の探査により明らかにしました。
本論文は、LLM によるペルソナシミュレーションの人間らしさを評価する新たなフレームワーク「Eval4Sim」を提案し、ペルソナ背景の暗黙的反映、一貫性、自然さの 3 つの次元で人間対話コーパスを基準とした多面的な評価を実現するものである。
本論文は、各タスクの入力共分散を微調整済みモデルのパラメータ差分から推定する理論的洞察に基づき、データなしでタスク間干渉を低減し、従来の手法を大幅に上回る性能を達成する新しいモデル統合フレームワーク「ACE-Merging」を提案するものである。
本論文は、LLM エージェントのプライバシー侵害を静的な防御ではなく、強化学習によって最適化された文脈認識型の「文脈化防御指示(CDI)」という新しいパラダイムで能動的に防ぎ、プライバシー保護と有用性のバランスを大幅に改善する手法を提案しています。
Transformer のグローバル依存性モデリング能力と Mamba の線形時間効率性を組み合わせたハイブリッドエンコーダ「MaBERT」を提案し、パディングによる状態汚染を防止する新たな手法により、長文脈の効率的な学習と推論を実現する。
本論文は、精神医療分野における大規模言語モデルの信頼性を包括的に評価するための新たなベンチマーク「TrustMH-Bench」を提案し、既存のモデルがその信頼性の多面的な要件において著しく不十分であることを実証しています。
本論文は、高品質で大規模な DaTikZ-V4 データセットと逆グラフィックスに基づく強化学習を活用し、小規模なオープンソースモデル「TikZilla」を開発することで、テキストから高品質な TikZ 図を生成する性能を大幅に向上させ、GPT-5 に匹敵する結果を達成したことを報告しています。
本論文は、拒絶応答の抑制と疑似有害出力の回避を目的とした二段階の損失関数、および勾配方向を優先するトークン最適化戦略を導入することで、既存手法を上回る高い攻撃成功率を達成する新しい最適化ベースのジャイルブレイク手法「TAO-Attack」を提案するものである。
この論文は、指示調整済み大規模言語モデル(LLM)を用いたコンパクトなプロンプト生成アプローチを提案し、従来のセグメンテーションや分類の分離手法ではなく、文章から直接議論的構成要素を検出する生成タスクとして再定義することで、標準ベンチマークにおいて最先端の性能を達成したことを示しています。
本論文は、自己教師あり学習による音声モデル(WavLM)の表現において、PCA によって抽出された個々の主成分次元がピッチや性別、強度、ノイズレベルなどの話者特性に対応しており、これら次元を操作することで音声合成における話者特性を制御可能であることを示しています。
本論文は、マルチターン LLM システムにおけるモデル切り替えが文脈の不一致を引き起こし、統計的に有意なパフォーマンスの漂移を生じさせることを実証し、そのリスクを定量化・分解するベンチマークと分析手法を提案するものである。