Pwned: How Often Are Americans' Online Accounts Breached?
该研究结合美国代表性样本与“Have I Been Pwned"数据发现,至少 82.84% 的美国成年人曾遭遇账户泄露,人均至少被泄露三次,且受教育程度较高、中年、女性和白人群体更易受影响。
284 篇论文
该研究结合美国代表性样本与“Have I Been Pwned"数据发现,至少 82.84% 的美国成年人曾遭遇账户泄露,人均至少被泄露三次,且受教育程度较高、中年、女性和白人群体更易受影响。
这篇论文系统回顾了截至 2026 年初的去中心化联邦学习方法,将其划分为传统分布式与基于区块链两大架构,提出了以核心瓶颈为导向的统一分类体系,总结了评估现状与局限,并指出了未来在拓扑感知威胁模型、去中心化隐私定义、抗操纵激励机制及目标模型界定等方向的研究重点。
本文通过对 GPT、Llama 和 Qwen 三大主流大语言模型家族的纵向研究,揭示了模型版本迭代并不总能提升对抗鲁棒性(包括误分类、越狱和幻觉),且更大的模型规模或更新未必能解决现有安全问题,甚至可能加剧某些风险。
本文研究了由两个循环群的半直积构造的非交换群环上的带误差学习()问题,并提出了两种多项式时间量子归约,证明了该问题在最坏情况下的格困难性假设下具有计算硬度,从而可用于构建语义安全的公钥密码系统。
本文提出了 VisPoison 框架,通过数据投毒在文本生成可视化模型中引入隐蔽触发器,实现了对敏感信息的泄露、误导性图表生成及拒绝服务攻击,并证实了现有防御策略对此类攻击的防御效果有限。
本文提出了名为 Kite 的新协议,旨在为去中心化自治组织(DAO)提供隐私保护委托投票机制,使成员能够在不泄露委托关系的前提下自由委托、撤销或重新委托投票权,并通过零知识证明、通用可组合性(UC)安全分析及以太坊智能合约实现验证了其安全性与实用性。
本文提出了 MCP Bridge,这是一种轻量级、与 LLM 无关的 RESTful 代理,旨在解决 MCP 服务器在移动端和浏览器等资源受限环境中无法通过 STDIO 运行的问题,同时结合基于风险的执行安全模型,并通过使用四种强化学习技术微调 Qwen3 模型,使其在 MCPToolBench++ 基准测试中取得了超越更大规模模型的性能。
该论文提出了一种名为 JULI 的黑盒越狱方法,它仅利用目标大语言模型预测的 Token 对数概率,通过引入微小的 BiasNet 插件操纵概率分布,从而在无需访问模型权重或生成过程的情况下有效突破 API 调用模型的安全限制。
本文提出了名为 Adaptive Tamaraw 的自适应网站指纹防御框架,该框架通过聚类分析将流量划分为 (k,l)-多样性匿名集并动态调整填充参数,在保留信息论安全保证的同时,实现了隐私保护与通信开销之间的灵活权衡。
该论文通过引入基于海拉随机态的量子随机预言机模型,证明了量子伪随机性的不同概念(如 PRFSG、QPRG 和 PRU)之间不存在经典意义上的等价性,并揭示了从对数长度输出构造量子可计算伪随机生成器时误差下界固有的几何障碍。
本文证明了将 Rényi 差分隐私(RDP)转换为 -差分隐私的最优规则,即通过取所有单阶 RDP 隐私区域交点所确定的逐点最大贸易函数,该规则在所有 RDP 配置和 Type I 错误水平下均具有最优性,且无法被任何其他黑盒转换方法在 Blackwell 意义上统一超越。
本文通过批判性评估当前对齐社区在借鉴安全保证领域经验时的局限性,结合成熟的安全保证理论与方法,提出了针对欺骗性对齐和核生化(CBRN)能力等前沿 AI 系统的安全案例新框架,旨在构建更稳健、可辩护且实用的安全论证基础。
本文提出了首个专为水平联邦场景设计的高保真差分隐私表格数据合成框架 HeteroFedSyn,通过引入基于 L2 依赖度度量、无偏估计及自适应选择策略的三项创新,有效解决了异构数据分布下的噪声累积与偏差问题,实现了与集中式合成相当的效用。
本文提出了名为 deZent 的去中心化 z-匿名方案,通过随机计数结构和安全求和机制在传感器网络中实现本地化隐私保护,在保持与中心化方案相当发布率的同时显著降低了对中心实体的通信开销。
本文提出了名为 NetDiffuser 的新型框架,通过结合特征分类算法与扩散模型生成语义一致的自然对抗样本,显著提升了欺骗基于深度学习的网络入侵检测系统的成功率并降低了现有检测器的防御性能。
该论文提出了一种整合困惑度检测、金丝雀序列提取和成员推断的多向量隐私评估框架,系统量化了基因组语言模型在不同架构和训练条件下的记忆化风险,揭示了单一攻击手段的局限性并强调了多向量审计的必要性。
本文提出了名为 Arbiter 的框架,通过结合形式化评估规则与多模型扫描技术,成功检测出 Claude Code、Codex CLI 和 Gemini CLI 等主流 LLM 编码代理系统提示词中的干扰模式,并揭示了提示架构与故障类别的关联性及多模型评估在发现独特漏洞方面的优势。
该研究系统性地刻画了多智能体系统(MAS)的独特威胁景观,通过评估 16 个现有 AI 安全框架发现它们均未能覆盖任何单一风险类别,其中非确定性和数据泄露问题最为突出,而 OWASP 代理安全倡议在整体覆盖率和设计阶段表现最佳。
本文介绍了 Lockbox,这是一种专为满足严格企业安全与治理要求而设计的零信任架构,旨在通过全生命周期的显式信任验证、强隔离及最小权限原则,确保敏感云工作负载(包括 AI 辅助处理)的安全处理。
本文提出了一种结合符号执行、大语言模型路径优先化与深度学习分类的混合分析框架,通过形式化验证与实验证明,该框架能有效检测传统及 AI 生成的零日恶意软件,在 AI 生成样本上取得了显著优于现有基线的检测准确率。