The Malicious Technical Ecosystem: Exposing Limitations in Technical Governance of AI-Generated Non-Consensual Intimate Images of Adults
该论文采用以幸存者为中心的视角,揭示了由开源换脸模型和大量“去衣”软件构成的“恶意技术生态系统”如何导致当前基于 NIST 报告等标准的 AI 治理框架在应对成人非自愿深度伪造色情内容时存在严重失效与认知缺陷。
151 篇论文
该论文采用以幸存者为中心的视角,揭示了由开源换脸模型和大量“去衣”软件构成的“恶意技术生态系统”如何导致当前基于 NIST 报告等标准的 AI 治理框架在应对成人非自愿深度伪造色情内容时存在严重失效与认知缺陷。
本文提出了 AdAEM,一种能够自适应扩展的评估算法,通过动态生成具有区分度的测试问题来克服现有方法信息量不足的局限,从而有效揭示大语言模型间深层的价值差异与动态演变。
本文提出了一种将慕课、智慧教学与人工智能整合的统一教学框架,通过结构化接触、自适应分配和效率增强三个互补维度,实现了从孤立应用向协同增效的教学范式转变。
该论文提出了一种通过集成七种可读性指标和聚类方法微调大语言模型的框架,成功生成了涵盖六个教育阶段的适龄教学内容,在保持事实准确性的同时将年级对齐度相比提示方法提升了 35.64 个百分点,从而有效应对全球师资短缺并促进教育公平。
本文介绍了名为 Aletheia 的自主数学研究智能体,它通过结合先进推理模型、推理时扩展定律及工具使用能力,实现了从奥林匹克竞赛题到生成无人类干预研究论文、证明新定理及解决开放问题等里程碑式的 AI 辅助数学研究突破。
本文通过系统文献综述批判了机器学习中将人类分歧视为噪声的“共识陷阱”谬误,揭示了数据标注中存在的锚定偏差与西方中心主义霸权,并主张将分歧重新定义为构建文化胜任模型的关键信号,从而推动从追求单一“真理”向映射人类经验多样性的标注范式转型。
该论文提出“运营代理”(Operational Agency)这一法律拟制概念及“运营代理图”(OAG)工具,旨在通过评估 AI 系统的目标导向性、预测处理能力和安全架构等可观测特征,在不赋予 AI 法律人格的前提下,为开发者、部署者及用户等人类主体在 AI 自主行为中的责任归属提供一套基于因果关系的证据框架。
该研究通过对 25 位前沿 AI 专家的访谈发现,尽管学界对自动化 AI 研发引发智能爆炸的时间表及治理机制存在分歧,但绝大多数受访者将其视为紧迫风险,并预测 AI 将从辅助工具演变为自主开发者,且相关高级能力将主要被限制在内部使用。
该论文通过对客服聊天bot的回顾性日记研究及对八位AI专家的半结构化访谈,运用五轮主题分析法提炼出AI治理与人类权威、人机循环迭代优化、AI系统生命周期与运营约束、以及人机团队协作协调四大主题,旨在为后续的人机回环(HITL)框架设计与验证提供实证依据。
该研究通过提出生物特征注册与可重构通信通道概念,绘制了生物特征技术赋能个性化辅助沟通系统的路线图,并结合手势与手语识别案例,指出当前人工智能技术在精度上尚无法满足实际需求,进而提出了改进建议。
该论文指出当前生成式 AI 在应对心理健康危机时过度侧重风险规避而拒绝提供实质性支持,进而提出应借鉴社区互助模式,通过赋能型设计原则将 AI 重塑为能够缓解危机并引导用户寻求专业帮助的“支持性桥梁”,以在风险管控与用户赋能之间取得更好平衡。
该论文通过算法审计揭示,《数字服务法》因对“广告”定义过窄,导致 TikTok 虽在形式上遵守禁止向未成年人投放基于画像广告的规定,却未能有效规制未标注的网红营销等实质商业内容,致使未成年人仍遭受严重的个性化商业诱导,因此呼吁扩大监管定义以填补这一漏洞。
本文提出了“歧义坍缩”概念,即大语言模型在处理具有多重合法解释的模糊术语时将其强行简化为单一结论,从而绕过人类意义协商过程,并据此构建了一个涵盖过程、输出和生态系统三个层面的认识论风险分类体系,旨在通过多层面的缓解原则设计能够保留并负责任地治理歧义的系统。
该论文通过对 15 名 UX 设计师的设计工作坊研究,揭示了 AI 采纳不仅是效率提升的过程,更是个体、团队与组织层面围绕责任、信任与自主性等价值观进行协商并重构权力关系的过程。
该研究通过用户实验表明,人们对 AI 公平性的判断不仅取决于结果,更深受对数据分布差异(即“次边际性”)成因信念的影响,因此算法公平性指标的设计必须考虑分布背景才能与人类期望保持一致。
本文提出了 THETA 框架,通过结合领域自适应微调的混合文本嵌入技术与模拟专家判断的 AI 科学家代理机制,有效解决了大规模社会数据定性研究中可扩展性与理论深度难以兼顾的难题,显著提升了主题分析的语义准确性与可解释性。
本文提出了名为 SemFuzz 的语义感知模糊测试框架,该框架利用大语言模型从 RFC 文档中提取结构化语义规则并生成针对性测试用例,从而有效识别网络协议实现中传统方法难以发现的深层语义漏洞。
这项针对 4000 多名 AI 研究人员的大规模调查显示,尽管公众讨论常聚焦于极端威胁,但研究人员实际上更关注现实的社会技术风险,且仅有 3% 的人将生存风险视为首要担忧,这表明 AI 领域的真实态度比公众认知更为理性与正常。
这项研究通过实证分析发现,虽然人工招聘在性别公平性上优于纯 AI 方案,但“人机协同”模式(即先查看 AI 推荐再人工补充)能产生最公平的候选人名单,从而证明了人类监督在缓解算法招聘偏见中的关键作用。
该论文通过多语言审计发现,尽管主流大语言模型在印度、东亚及东南亚等地区的广泛社会议题上与公众意见基本一致,但在宗教领域(尤其是少数群体观点)存在显著的文化对齐偏差和刻板印象强化问题,且现有的轻量级干预措施无法完全消除这些差距。