Upholding Epistemic Agency: A Brouwerian Assertibility Constraint for Responsible AI
この論文は、民主的な認識的主体性を維持するため、高リスク領域における生成 AI に対して、Brouwer の思想に基づき「公的に検証可能な正当化の証明」がない限り「未決定」として出力を留保し、確信度ではなく検証可能な根拠に基づく責任ある AI 設計を提案するものである。
64 件の論文
この論文は、民主的な認識的主体性を維持するため、高リスク領域における生成 AI に対して、Brouwer の思想に基づき「公的に検証可能な正当化の証明」がない限り「未決定」として出力を留保し、確信度ではなく検証可能な根拠に基づく責任ある AI 設計を提案するものである。
この論文は、P2 におけるモデル構成を用いて、パラメトリックな商型やストリーム型の共帰納原理が定義不可能であり、自然数の帰納原理の証明には関数拡張性が必要不可欠であることを示しています。
本論文は、Neural SDE を用いて離散的な可能世界を連続多様体に拡張し、確率的拡散による量化子の崩壊防止やリスク測度としてのモダリティ実装などの特徴を持つ「Fluid Logic」および「CMLNN」を提案し、ロボットの幻覚検出やアトラクタの復元、安全な拘束動力学の学習など多様な領域における論理的整合性のある解の生成を実証しています。
SpotIt+ は、ルールベースのマイニングと LLM による検証を組み合わせてデータベース制約を抽出し、生成された SQL と正解 SQL の違いをより現実的なデータベース例で特定する、テキストから SQL へのシステム評価のためのオープンソースツールです。