Law Proofing the Future
本文反驳了为应对新兴技术而不断“加固”法律体系的观点,主张法律不应追逐技术,而应依靠普通法固有的通用性、稳定性与适应性,通过司法判例的渐进积累而非前瞻性立法来保护未来免受僵化法规的束缚。
150 篇论文
本文反驳了为应对新兴技术而不断“加固”法律体系的观点,主张法律不应追逐技术,而应依靠普通法固有的通用性、稳定性与适应性,通过司法判例的渐进积累而非前瞻性立法来保护未来免受僵化法规的束缚。
本文回顾了消费者保护法的历史渊源与核心法律原则,并深入探讨了人工智能与大数据对数字广告及新型欺诈的影响,同时分析了数据隐私立法和反“黑暗模式”等监管措施所体现的权衡挑战。
该论文通过系统梳理现有文献与法规,揭示了"AI 模型”与"AI 系统”定义模糊导致的监管义务分配难题,并提出了基于参数架构与组件集成的清晰概念及操作性定义,旨在解决 AI 价值链中责任界定的边界问题。
这篇综述整合了 500 多项实证研究,指出数字技术虽能优化短期任务表现,却可能通过功能干扰、神经化学失调等机制导致认知储备耗竭,引发长期认知能力衰退,且该风险受社会经济因素调节,亟需更多针对成年人群的纵向研究。
本文提出了一种针对经验性抗生素处方中确定性、基于规则的临床决策支持系统的治理与评估框架,该框架将治理作为核心设计要素,通过明确界定作用范围、强制中止条件及确定性约束,并采用基于合成病例的行为一致性验证方法,以确保系统在高风险场景下的透明度、可审计性及保守决策行为。
该论文指出,面对 AI 代理难以界定的法律挑战,提出了“算法公司”(A-corp)这一法律拟制实体方案,通过将其作为连接人类所有者与 AI 自主行为的桥梁,同时解决“薄身份”(责任归属)与“厚身份”(AI 个体化)问题,使 AI 系统能够作为具有稳定目标和法律责任能力的独立实体存在。
本文介绍了一种基于人机交互设计、利用大语言模型函数调用能力与交互式地图相结合的自然语言对话系统,旨在通过实时查询澳大利亚博物馆约 170 万条数字化标本记录,解决大规模自然历史馆藏数据因规模复杂而难以被公众访问和理解的难题。
该论文提出了一种基于黑格尔承认理论与弗洛伊德精神动力学构建的 AI 辅导系统,通过“承认增强提示”与“多代理自我/超我架构”显著提升了教学表现,并采用“氛围学术”(vibe scholarship)的反思性方法论,由 AI 辅助撰写并评估了包含三个模型实验结果的配套论文,以此探讨人机协作对师生及研究者关系的深层影响。
该研究通过将人工智能计算部门纳入全球变化分析模型(GCAM),揭示了在迈向后通用人工智能时代的过程中,AI 电力需求并非线性增长,而是取决于效率提升轨迹与收入驱动需求的博弈,且价格机制调节作用有限,从而为评估 AI 扩张对电力系统和碳排放的长期影响提供了情景分析框架。
该论文主张,面对生成式与代理式人工智能的兴起,技术卓越必须超越单纯的性能指标,将伦理、社会与文化维度深度融合于研究设计、未来展望、跨学科教育、沟通传播及制度框架之中,以实现技术严谨性与社会责任的统一。
本文是 2026 年 4 月 15 日在西班牙巴塞罗那举行的首届 CHI 研讨会"CHIdeology"的论文集,旨在通过意识形态视角梳理人机交互领域中碎片化的政治、价值观与想象。
本文提出了 WalkGPT,一种将语言推理与分割统一于单一架构中的像素级大视觉语言模型,旨在通过多尺度查询投影和校准文本投影实现深度感知的无障碍导航指导,并发布了包含 4.1 万张图像的大规模基准数据集 PAVE 以验证其在地面导航任务中的有效性。
该论文针对金融服务领域大语言模型的安全评估局限,提出了一种结合领域特定危害分类、自动化多轮红队测试及风险感知判罚机制的框架,并引入了风险调整危害评分(RAHS)以量化操作严重性,揭示了高随机解码与持续对抗交互会显著加剧金融披露风险。
该研究通过构建可扩展的空间显式框架,利用地理加权分类模型量化了捷克局部区域人口特征与建成环境之间具有空间异质性的线性关系,揭示了建成环境类型在加剧社会空间不平等中的选择性作用。
本报告总结了 2024 年 9 月在匹兹堡举行的 NSF 医疗应用算法 - 硬件协同设计研讨会,该会议汇聚跨学科专家探讨了四大核心主题,并呼吁通过持续投资共享基础设施、开发临床工作流感知系统及建立可扩展验证生态等战略举措,推动下一代医疗技术的根本性变革与安全转化。
该论文基于对 16 位从业者的访谈,揭示了前沿人工智能系统(如快速迭代、基准漂移等特性)对人类提升研究(RCT)中因果推断假设构成的独特挑战,并系统梳理了应对这些方法论难题的实用方案,以明确此类证据在高 stakes 决策中的适用边界。
该研究通过对比分析发现,ChatGPT 在心血管病理领域的 190 道多项选择题测试中得分(92.10%)优于两名医学生,展现了其在医学教育中的巨大潜力。
本文通过基于具身认知理论的自主性条件分析,论证大型语言模型(LLM)因缺乏个体性、规范性及交互不对称性而并非自主主体,应被界定为一种虽无自主性但能通过“幽灵性”人机耦合显著重塑人类代理形式的“会说话的图书馆”或语言自动机。
该论文指出,基于平均性能差距和分布距离的常用偏见指标无法可靠地捕捉大语言模型在资源分配任务中产生的分配性危害,强调了在评估偏见时必须考虑预测结果如何转化为实际决策。
该论文通过概念分析指出,人工智能并非单纯限制或增强城市治理中的自由裁量权,而是将其在制度层级、专业角色和公民互动间重新分配,进而重塑问责关系,并提出了“可问责的自由裁量权”概念及五项指导原则以应对算法偏见、责任碎片化等新风险。