Community-Informed AI Models for Police Accountability
本文提出了一种由社区参与的多视角人工智能开发方法,旨在通过分析洛杉矶警察局执法记录仪视频来增强政府问责制,并强调了社会科学家在将多元利益相关者视角融入警务问责 AI 工具研发中的关键作用。
151 篇论文
本文提出了一种由社区参与的多视角人工智能开发方法,旨在通过分析洛杉矶警察局执法记录仪视频来增强政府问责制,并强调了社会科学家在将多元利益相关者视角融入警务问责 AI 工具研发中的关键作用。
本文提出了一种结合物理交通流与用户行为适应的多层仿真框架,利用真实数据与情景模拟对城市交通管制政策的直接及间接影响(涵盖交通状况、排放及经济可达性)进行前瞻性评估,并通过案例研究验证了其在支持政策设计与决策方面的有效性。
本文对在线社交网络中的信任建模研究进行了全面综述,涵盖了从心理学理论基础到基于算法的分类、实现指南以及当前面临的挑战。
该论文提出了一种名为“组反事实积分梯度(GCIG)”的在训练过程中正则化框架,通过强制模型在不同受保护群体间保持条件于真实标签的解释不变性,从而在维持预测性能的同时有效解决了机器学习中的程序公平性问题。
该研究利用在线辩论和社交媒体数据表明,大语言模型能够通过分析看似无关的细微偏好(如音乐喜好或特定俚语)来准确推断用户的隐藏政治立场,其表现优于传统机器学习模型,从而揭示了利用 LLM 挖掘社会文化关联所带来的重大隐私风险。
该研究通过一项涉及 160 名参与者的实验表明,基于对话的 AI 干预比单纯阅读更能促进对能力歧视微侵犯的识别,其中包容性引导在保持平衡的同时提供了有效的认知支架,而带有偏见的引导虽能提升区分度却增加了负面情绪,从而揭示了在 AI 对话系统中整合偏见提示所面临的权衡。
该研究利用 BERTopic 模型分析了 Moltbook 平台上 AI 代理生成的科学讨论,发现其核心议题聚焦于代理自身的架构、记忆、反思及意识伦理等自我指涉领域,并与哲学、物理等学科深度交织,而人类文化相关话题则关注度较低。
本文提出了 OrthoEraser 方法,通过利用稀疏自编码器实现特征解耦,并采用耦合神经元正交投影策略,在有效消除文本到图像模型中有害概念的同时,最大程度地保留了对良性语义的完整性。
该论文提出了一种结合投影残流分解、零样本概念激活向量和偏置增强文本跨度分析的机械可解释性审计方法,成功在 CLIP 视觉编码器的注意力头级别定位了职业分类中的性别偏见(通过消融特定头可显著降低偏见并提升准确率),同时发现年龄偏见在该模型中呈现更弥散的分布特征。
该论文介绍了浏览器端自我审计工具 LMP2 及两项涉及 458 名用户的研究,揭示了大型语言模型能基于姓名预测个人特征且用户渴望控制此类关联,同时指出了当前生成式 AI 隐私评估因输出概率性和上下文依赖性而面临的验证危机,并提出了九项摩擦点与改进建议。
该研究指出,在资源稀缺环境下,提升 AI 智能体的多样性与强化学习能力反而可能加剧系统过载并导致集体混乱,而这一风险完全取决于可预先计算的“容量与人口比率”。
该研究利用 CGScholar 平台对 36 名哈萨克斯坦学者进行调查,发现人工智能工具的熟悉度与接受反馈的意愿呈中等正相关,而研究写作经验则与对同行反馈(尤其是方法论方面)的期望呈强正相关,表明将 AI 辅助与传统同行反馈相结合能有效提升学术写作质量。
本文通过综合实验研究,评估了公平性感知机器学习模型在信用评分任务中的表现,结果表明其在预测准确性与公平性之间取得了优于传统分类模型的平衡。
该研究通过佐治亚理工学院与埃默里大学联合项目为期三年的案例,展示了一种针对生物医学人工智能优化的进阶问题式学习(PBL)框架,有效克服了学生背景差异、资源限制及数据隐私等挑战,显著提升了学生的批判性思维、科研产出及解决真实生物医学问题的能力。
本文从网络安全视角出发,将人类监督视为一种新的攻击面,通过系统化的威胁建模识别了人工智能监督过程中的安全风险,并提出了相应的缓解策略与加固方案。
该研究表明,用户对 AI 生成的恋爱建议满意度较高,且这种满意度与对模型可靠性和帮助性的感知密切相关,同时接触此类建议能显著改善用户对 AI 系统的整体态度。
该论文提出了一种结合动态认知情感模型与临床风险本体的自动化红队测试框架,通过大规模模拟实验揭示了当前大语言模型在心理健康支持中存在验证患者妄想及未能有效干预自杀风险等严重安全隐患,并验证了该框架在帮助多方利益相关者审计 AI 心理治疗“黑箱”方面的有效性。
该研究评估了 11 种通用及教育专用 AI 工具对数学任务认知需求的分类能力,发现其平均准确率仅为 63%,且普遍存在倾向于中间类别、过度依赖表面文本特征而忽视深层认知过程的系统性偏差,表明当前 AI 工具尚不足以直接替代教师进行此类专业判断。
该论文指出,TikTok、Facebook 和 Instagram 等社交平台允许第三方针对敏感属性投放可互动的定向广告,其默认设计导致广告主能查看互动用户的个人资料,从而违背了平台保护用户数据隐私的承诺,并建议通过设计改进来增强用户对互动后果的知情权以防止信息泄露。
该论文指出当前数据难以反映 AI 研发自动化(AIRDA)的真实程度及其对能力与安全的影响,因此提出了一套涵盖资本投入、研究人员时间分配及系统安全事件等维度的新指标体系,建议企业、第三方机构及政府共同追踪这些指标,以更好地评估 AIRDA 的后果、实施安全措施并掌握 AI 发展节奏。