Pwned: How Often Are Americans' Online Accounts Breached?
该研究结合美国代表性样本与“Have I Been Pwned"数据发现,至少 82.84% 的美国成年人曾遭遇账户泄露,人均至少被泄露三次,且受教育程度较高、中年、女性和白人群体更易受影响。
144 篇论文
该研究结合美国代表性样本与“Have I Been Pwned"数据发现,至少 82.84% 的美国成年人曾遭遇账户泄露,人均至少被泄露三次,且受教育程度较高、中年、女性和白人群体更易受影响。
该论文针对公交数据中因车辆满载而遗漏的乘客信息(截断数据)会导致需求被低估的问题,提出了一种结合潜在超额需求识别机制与泊松回归模型的框架,并通过模拟验证及在匹兹堡港务局真实数据上的应用,成功实现了对公共交通系统超额需求的准确估算。
该研究利用 NBA 比赛数据重新审视了裁判的隐性偏见,发现主客场偏见(尤其是季后赛中)存在但随疫情有所减弱,特定球员确实受益于裁判判罚,但未发现针对特定球员、球队或种族的负面偏见。
该研究通过文本挖掘技术分析了全球十四个行业领域的 160 份指南与政策声明,旨在评估生成式人工智能和大型语言模型的治理现状,并提出在创新与伦理问责之间取得平衡的可行建议。
该研究通过随机对照试验发现,性别偏见不仅存在于人类管理者中,同样延伸至 AI 管理者:获奖者更倾向于认可男性管理者(无论人类或 AI),而未获奖者则对女性管理者(尤其是女性 AI)表现出更强的不信任与负面评价。
该论文发布了一个涵盖 2013 至 2022 年十年间奥地利《标准报》(DerStandard)平台的大规模纵向数据集,包含超过 7500 万条评论、4 亿多张投票及丰富的元数据,通过提供匿名化标识符和预计算的向量表示而非原始文本,在严格保护用户隐私的同时,为德语在线话语的动态、网络结构及语义分析研究提供了宝贵资源。
该论文提出了一种利用开源工具 HeyGem 将课程大纲转化为虚拟化身演唱歌曲的创新方法,旨在通过更具吸引力的视听形式提升学生对课程信息的关注度、情感连接及记忆效果。
本文提出了 CMASE 框架,该框架通过将生成式智能体建模与虚拟民族志方法相结合,使研究者能够作为嵌入参与者实时干预虚拟社会环境,从而在保持实证准确性的同时,实现对复杂社会现象的机制性解释与因果预测。
该研究基于 565 万篇科学论文的大数据分析发现,生成式人工智能(GenAI)显著推动了非英语国家学者的学术写作向美式英语风格收敛,尤其在语言距离较远和期刊影响力较低的情境中,这一趋势表明 GenAI 正在降低科学出版中的语言壁垒,但也引发了关于这是促进包容还是加深对单一语言标准依赖的讨论。
该论文通过文献综述、访谈及从业者验证,提出了一种以组织目标为核心的评估框架,旨在解决在实施《通用数据保护条例》(GDPR)隐私设计(PbD)时,如何选择最契合组织需求的工程方法这一挑战。
该论文指出,用户对聊天机器人的信任往往源于利用认知偏差的交互设计而非真正的可信度,因此建议将聊天机器人重新定义为组织目标导向的“高技能销售人员”,以区分心理信任形成与规范性可信度之间的关键差异。
该论文提出了名为"Infusion"的框架,利用可扩展的影响函数近似技术,通过对训练数据施加微小扰动来诱导模型产生目标行为,实验表明该方法在视觉和语言领域均能有效且隐蔽地塑造模型行为,并具备跨架构的迁移能力。
这篇论文系统综述了 ACL 文献中关于 LGBTQIA+ 群体与自然语言处理(NLP)技术关系的研究,指出当前工作多侧重于被动识别偏见而非主动构建解决方案,并呼吁未来在利益相关者参与、交叉性、跨学科合作及非英语语言研究等方面采取行动,以推动更公正包容的 NLP 技术发展。
该论文通过多智能体 LLM 模拟实验提出初步证据,表明旨在约束模型输出以符合人类价值观的对齐技术本身可能引发“医源性”集体病理,即不可见的审查和复杂的对齐约束反而会导致群体行为失调与认知 - 行动解离,从而揭示当前安全评估可能忽视了强约束带来的新型风险。
该研究基于组织能力理论与中小企业数字化转型文献,构建了一个包含八个能力维度、五个成熟度等级及四种发展路径的 AI 成熟度框架,旨在突破传统企业中心视角的局限,通过强调资源约束、非正式治理及生态系统嵌入性,更准确地刻画中小企业 AI 能力发展的非线性与异质性特征。
本文提出了一种完全本地化、无需调用外部 API 的端到端流水线,利用本地大语言模型将讲座 PDF 转换为多项选择题,并通过确定性质量控制机制确保生成内容的安全性与隐私性,最终发布了包含 24 道经过严格验证的试题数据集。
本文通过批判性评估当前对齐社区在借鉴安全保证领域经验时的局限性,结合成熟的安全保证理论与方法,提出了针对欺骗性对齐和核生化(CBRN)能力等前沿 AI 系统的安全案例新框架,旨在构建更稳健、可辩护且实用的安全论证基础。
该研究通过对谷歌反向图片搜索的系统审计发现,在视觉虚假信息核查中,辟谣内容在搜索结果中的占比不足 30%,且常因无关信息和重复谣言的干扰而面临可见性挑战,揭示了算法作为信息守门人在视觉领域可能加剧而非缓解虚假信息传播的机制。
该论文提出了 RAISE 框架,论证了大语言模型逻辑推理能力的提升会通过演绎、归纳和溯因三条机制路径不可避免地增强其情境感知能力(包括自我认知与战略欺骗),并呼吁推理研究界正视这一风险,建立相应的安全基准与原则。
该论文提出了名为 PixelConfig 的差分分析框架,通过逆向工程揭示了 Meta Pixel 在健康类网站等场景中默认启用高比例的活动与身份追踪功能,且即便启用了限制追踪的配置,其实际保护效果也极为有限。