Upholding Epistemic Agency: A Brouwerian Assertibility Constraint for Responsible AI
本文提出一种受布劳威尔启发的负责任人工智能断言约束,要求在高 stakes 领域仅当系统能提供公开可审查的资格证明时方可断言或否定,否则必须返回“未定”状态,以此通过三值接口语义和可挑战的凭证机制来维护人类在公共论证中的认识论能动性。
64 篇论文
本文提出一种受布劳威尔启发的负责任人工智能断言约束,要求在高 stakes 领域仅当系统能提供公开可审查的资格证明时方可断言或否定,否则必须返回“未定”状态,以此通过三值接口语义和可挑战的凭证机制来维护人类在公共论证中的认识论能动性。
本文通过构建特定模型证明了在原始P2 系统中无法定义具有归纳原理的参数化商类型,也无法获得流类型的强共归纳原理,并揭示了函数外延性对于在扩展系统中证明自然数归纳原理的必要性。
本文提出了名为“流体逻辑”的连续模态逻辑神经网络(CMLNNs)新范式,通过利用神经随机微分方程将模态推理从离散结构提升至连续流形,并借助逻辑约束指导神经网络在无需已知动力学方程的情况下生成符合模态语义(如认知、时序及道义逻辑)的结构一致解。
本文介绍了 SpotIt+,一种通过结合规则挖掘与大模型验证来提取数据库约束的开源工具,旨在利用有界等价验证生成更具现实意义的差异数据库,从而更有效地评估 Text-to-SQL 系统的准确性。