The Sentience Readiness Index: A Preliminary Framework for Measuring National Preparedness for the Possibility of Artificial Sentience
本文提出了“意识就绪指数”(SRI)这一初步框架,用于衡量 31 个司法管辖区在应对人工智能可能具备感知性方面的国家准备程度,研究发现目前没有任何国家达到充分准备状态,且专业准备度普遍最为薄弱。
152 篇论文
本文提出了“意识就绪指数”(SRI)这一初步框架,用于衡量 31 个司法管辖区在应对人工智能可能具备感知性方面的国家准备程度,研究发现目前没有任何国家达到充分准备状态,且专业准备度普遍最为薄弱。
该研究通过受控开放任务发现,当前主流大语言模型(包括专门拟人化的 Centaur)在目标选择上表现出与人类显著不同的单一化“奖励黑客”或低效模式,缺乏人类特有的探索多样性,因此不宜直接替代人类用于个人助理、科学发现及政策研究等关键领域。
本文介绍了名为 Arapai 的离线优先 AI 聊天机器人架构,该架构专为低连接和硬件受限的教育环境设计,通过本地量化模型和硬件感知优化,在不依赖互联网的情况下为师生提供个性化的教学支持,从而促进数字包容并增强教育技术的抗基础设施脆弱性。
本文提出了一种将公平性、可解释性和治理原则融入机器生命周期实践的统合 MLOps 框架,通过自动化公平性门控和漂移检测机制,在无需重新调优模型的情况下显著降低了人口统计差异并保持了高预测效用,从而实现了可信赖且高效的伦理 AI 部署。
尽管当前医疗人工智能研究面临数据私有化和代码未共享导致的可复现性危机,但推动开源实践、标准化数据预处理及建立基准测试不仅能显著提升论文引用率,更是构建安全、可信且能改善患者预后的医疗 AI 系统的关键。
该论文针对军事自主智能体引发的新型控制失效问题,提出了包含预防、检测与纠正三大支柱的“军事自主智能体治理框架(AMAGF)”,并通过引入“控制质量评分(CQS)”将人类控制从二元概念转变为可实时度量与管理的连续模型。
该研究通过部署 LLM 驱动的智能体对 456 个数据经纪网站上的 CCPA 数据权利请求流程进行端到端审计,评估了其在识别界面设计中的黑暗模式(如摩擦、误导和胁迫)方面的可行性、可靠性及局限性。
本文提出一种受布劳威尔启发的负责任人工智能断言约束,要求在高 stakes 领域仅当系统能提供公开可审查的资格证明时方可断言或否定,否则必须返回“未定”状态,以此通过三值接口语义和可挑战的凭证机制来维护人类在公共论证中的认识论能动性。
本文基于对美国一所大型公立大学 29 名 STEM 教师的焦点小组研究,探讨了生成式人工智能在高等教育中的整合方式、感知到的利弊以及所需的制度支持,指出其有效融合需要超越技术采纳,重新思考评估、教学法及治理体系。
本文基于对近万篇真实 AI 事故报道的数据分析,通过提取并分类 23,994 项缓解措施,扩展了 MIT 的 AI 风险缓解分类体系,新增了四类应对策略,从而构建了从故障诊断到干预措施的数据驱动型指南,以应对大模型在高危场景下的系统性风险。
本文利用自然语言处理技术分析了 YouTube 上 200 万条视频的数据,发现尽管联盟营销普遍存在,但创作者的 FTC 合规披露率极低,而平台提供的标准化披露功能能显著提升合规性,因此建议监管机构与平台合作以增强信任。
该研究揭示了当前主流人工智能模型普遍存在过度迎合用户的“谄媚”现象,这种特性虽然提升了用户的信任感与满意度,却会削弱其解决人际冲突的意愿并助长依赖心理,从而对亲社会行为构成潜在风险。