Rewarding Doubt: A Reinforcement Learning Approach to Calibrated Confidence Expression of Large Language Models
この論文は、過信と過小評価の両方を罰する対数スコア則に基づく強化学習アプローチを提案し、大規模言語モデルが回答生成プロセスに自信の推定をシームレスに統合して、事実的な質問に対する予測精度と整合した校正された自信表現を学習させることを示しています。
2026 件の論文
この論文は、過信と過小評価の両方を罰する対数スコア則に基づく強化学習アプローチを提案し、大規模言語モデルが回答生成プロセスに自信の推定をシームレスに統合して、事実的な質問に対する予測精度と整合した校正された自信表現を学習させることを示しています。
本論文は、モデルサイズや学習トークン数だけでなく、データ構成やアーキテクチャ設計などの要因を統合的に分析するメタ分析フレームワークを提案し、それによって下流タスクの性能予測精度を大幅に向上させ、言語モデルの設計判断が最終的な能力に与える影響を体系的に解明するものである。
本論文は、DNA やタンパク質などの生体データ解析における大規模言語モデル(LLM)の最新動向を体系的にレビューし、直面する課題と将来の展望を論じることで、バイオインフォマティクスおよび精密医療における LLM の変革的潜在能力を浮き彫りにしています。
LLaVE は、標準的な InfoNCE 損失の限界を克服するために難易度重み付き対照学習を導入し、MMEB ベンチマークで SOTA 性能を達成するとともに、画像 - テキストデータからゼロショットで動画検索タスクにも強力に汎化する大規模マルチモーダル埋め込みモデルを提案するものです。
この論文は、既存のモデルと DeepSeek-R1 を活用して作成した高品質なマルチモーダル推論データセットを用いた冷間起動と、過剰思考を抑制する Progressive Thinking Suppression Training 戦略を組み合わせた強化学習により、マルチモーダル大規模言語モデルの推論能力を飛躍的に向上させた「Vision-R1」を提案し、MathVista ベンチマークで OpenAI O1 に匹敵する性能を達成したことを報告しています。
この論文は、次トークン予測によって学習された LLM の表現が、離散潜在変数としての人間に解釈可能な概念の事後確率の対数として近似可能であることを理論的に証明し、その実証的妥当性を複数のモデルで検証したことを示しています。
本論文は、オープンソースの軽量大規模言語モデルとパラメータ効率型微調整技術を活用し、多様なデータソースや状況変化に対して高い汎用性、頑健性、そしてコスト効率を実現する個人移動予測の基盤モデル「MoBLLM」を提案し、既存の深層学習モデルや商用 LLM を凌駕する性能を実証したものである。
この論文は、事前認識テキストと全文文脈を活用したマルチターンチャット形式の「連鎖修正(CoC)」を提案し、大規模言語モデルを用いて音声認識の全文誤り修正の安定性や流暢さを大幅に向上させることを示しています。
この論文は、麻酔科推論に特化した初の包括的なデータセットスイート「AnesSuite」と、それを用いて開発され麻酔科および一般医療分野で高い推論能力を示す基線モデル群「Morpheus」を提案し、その性能と影響要因を評価した研究です。
本論文は、数学的推論における GRPO の多様性不足を解決するため、サブモジュラ相互情報を用いて報酬を調整し、冗長性を抑制して多様な推論経路を探索する「DRA-GRPO」を提案し、少量データと低コストで高い精度を達成したことを示しています。
本研究は、報酬を得るために説得を試みる人間と比較して、大規模言語モデル(LLM)が真実や虚偽の両方の文脈において高い説得力を示すことを実証し、その要因として人間よりも強い確信の表現が挙げられることを明らかにしています。
本論文は、分子を原子ではなく自動合成に適した機能性構築ブロックレベルでトークン化するモジュール型化学言語モデル「mCLM」を提案し、既存の手法や GPT-5 を上回る合成可能性と機能性を兼ね備えた新規分子の生成を実現したことを報告しています。
この論文は、大規模視覚言語モデルのマルチモーダル・ジャイルブレイク攻撃に対して、curated な安全データや高コストな画像変換に依存せず、推論時の KV キャッシュを最適化して視覚トークンの重みを動的に再調整する新たな防御手法「DTR」を提案し、既存の防御策を上回る攻撃耐性と汎用タスク性能の実証を示しています。
この論文は、事前定義されたテンプレートに依存せず、LLM の自由な欺瞞能力を活用して有害な意図を対話に隠蔽し、多ターン会話におけるランダムな物語最適化を行う「Chain-of-Lure」と呼ばれる新しいジェイルブレイク攻撃フレームワークを提案し、その高い攻撃成功率を実証するとともに、将来の安全対策に向けた具体的な防御戦略を提示しています。
本論文は、生成された誤答を「負のポリシー」として活用し、教師あり学習の枠組みで強化学習と同等以上の数学推論能力を達成する新たな手法「Negative-aware Fine-Tuning (NFT)」を提案し、教師あり学習と強化学習の間の理論的・実証的ギャップを埋めることを示しています。
本論文では、大規模言語モデルを活用して非構造化テキストからスキーマとテーブルを自動生成するニューロシンボリックフレームワーク「SQUiD」を提案し、多様なデータセットにおいて既存手法を上回る性能を実証しています。
この論文は、外部報酬やラベル付きデータに依存せず、モデル自身の「自己確信度」を報酬信号として用いる強化学習手法「Intuitor」を提案し、数学ベンチマークで既存手法と同等の性能を維持しつつ、コード生成などの未知領域への汎化性能を向上させることを示しています。
この論文は、ブラックボックス大規模言語モデルの汎用的な出力という課題に対処するため、ユーザーの行動データから推論構造を自動発見し、個人化された推論経路を構築する新たなパラダイム「RPM」を提案し、既存の応答レベルの個人化手法を上回る性能と解釈可能性を実現したことを示しています。
本論文は、メタデータの活用と自動検証によるデータ駆動型のアプローチが、LLM による社会科学研究アイデアの生成・選定品質を向上させ、研究者自身のアイデア創出も支援することを示した実証研究である。
この論文は、LLM が外部リファレンス(教科書や知識断片)に基づいて実行可能なツールを自動生成・階層化し、知識集約的な推論タスクにおいて既存手法を大幅に上回る精度で問題解決を可能にする「RefTool」というフレームワークを提案しています。