Gist.Science
今日搜索里程碑关于Testimonials
  • EN
  • NL
  • DE
  • FR
  • ES
  • 中文
  • 日本語
  • 한국어
  • PT
  • IT
🔒 Category

cs.CR

362 篇论文

Plug-and-Hide: Provable and Adjustable Diffusion Generative Steganography

本文针对扩散模型生成式隐写术中图像质量、安全性与提取可靠性之间的权衡问题,提出了一种无需训练即可无缝集成且可理论证明的“可调节比特到高斯映射(PA-B2G)”方法,实现了任意长度秘密信息在纯高斯噪声中的可逆编码与灵活平衡。

Jiahao Zhu, Zixuan Chen, Jiali Liu + 3 more2026-03-05💻 cs

When Memory Becomes a Vulnerability: Towards Multi-turn Jailbreak Attacks against Text-to-Image Generation Systems

本文提出了首个针对真实世界文生图系统的多轮越狱攻击方法"Inception",该方法通过利用系统的记忆机制,结合语义分割与递归扩展策略将恶意意图嵌入对话初始记忆,从而有效绕过安全过滤并显著提升了攻击成功率。

Shiqian Zhao, Jiayang Liu, Yiming Li + 9 more2026-03-05💻 cs

Apple's Synthetic Defocus Noise Pattern: Characterization and Forensic Applications

本文深入表征了 iPhone 人像模式下特有的合成散焦噪声模式(SDNP),提出了其精确估计方法,并展示了该模式在跨设备版本溯源及通过掩蔽受干扰区域显著提升 PRNU 相机来源验证准确性方面的关键应用价值。

David Vázquez-Padín, Fernando Pérez-González, Pablo Pérez-Miguélez2026-03-05💻 cs

Vulnerability Management Chaining: An Integrated Framework for Efficient Cybersecurity Risk Prioritization

本文提出了一种名为“漏洞管理链”的决策树框架,通过系统整合 KEV、EPSS 和 CVSS 数据,在保持 85.6% 覆盖率的同时将紧急修复工作量减少约 95%,显著提升了漏洞优先级排序的效率。

Naoyuki Shimizu, Masaki Hashimoto2026-03-05💻 cs

VFEFL: Privacy-Preserving Federated Learning against Malicious Clients via Verifiable Functional Encryption

本文提出了一种名为 VFEFL 的隐私保护联邦学习框架,通过设计无需非共谋双服务器或可信第三方假设的新型跨密文去中心化可验证功能加密(CC-DVFE)方案及鲁棒聚合规则,有效抵御恶意客户端攻击并保障数据隐私与模型准确性。

Nina Cai, Jinguang Han, Weizhi Meng2026-03-05🤖 cs.AI

Text2VLM: Adapting Text-Only Datasets to Evaluate Alignment Training in Visual Language Models

本文提出了 Text2VLM 框架,通过将纯文本数据集转化为包含恶意文本的视觉图像,构建多模态评估流程以揭示视觉语言模型在提示注入攻击下的对齐脆弱性,并验证了其在推动安全部署方面的有效性。

Gabriel Downer, Sean Craven, Damian Ruck + 1 more2026-03-05🤖 cs.AI

Proof of Cloud: Data Center Execution Assurance for Confidential VMs

该论文提出了“数据中心执行保证(DCEA)”方案,通过将机密虚拟机的 TEE 证明与平台级 TPM 证据进行密码学绑定,生成“云证明”以填补现有机制无法验证代码运行物理位置的空白,从而有效防止代理攻击并为隐私敏感工作负载提供可验证的执行位置保障。

Filip Rezabek, Moe Mahhouk, Andrew Miller + 3 more2026-03-05💻 cs

A Comparative Study of Hybrid Post-Quantum Cryptographic X.509 Certificate Schemes

本文针对量子计算威胁下 NIST 后量子密码标准的落地,从证书大小、计算效率及迁移可行性等多维度,对基于 X.509 格式的复合、催化剂及变色龙等混合后量子证书方案进行了全面的对比分析。

Abel C. H. Chen2026-03-05💻 cs

AudAgent: Automated Auditing of Privacy Policy Compliance in AI Agents

本文提出了 AudAgent,一种通过政策形式化、运行时标注、合规性审计及可视化界面四个组件,实时监测并自动阻断 AI 代理违反隐私政策(特别是涉及敏感数据处理)行为的自动化审计工具。

Ye Zheng, Yimin Chen, Yidan Hu2026-03-05🤖 cs.AI

ceLLMate: Sandboxing Browser AI Agents

本文提出了 ceLLMate,一种通过在 HTTP 层拦截网络通信来限制浏览器 AI 代理权限的沙箱框架,旨在解决 UI 级策略难以实施的语义鸿沟问题,并有效防御提示注入攻击。

Luoxi Meng, Henry Feng, Ilia Shumailov + 1 more2026-03-05🤖 cs.LG

FIPS 204-Compatible Threshold ML-DSA via Shamir Nonce DKG

本文提出了首个支持任意门限且无需计算假设即可保证随机数共享隐私的 FIPS 204 兼容阈值 ML-DSA 方案,该方案通过 Shamir 随机数分布式密钥生成(DKG)和成对抵消伪随机函数掩码技术,在保持标准 3.3 KB 签名格式的同时解决了格基阈值签名中的承诺绑定、r0 检查及响应聚合等关键挑战。

Leo Kao2026-03-05💻 cs

No More, No Less: Least-Privilege Language Models

该论文提出了“最小权限语言模型”的新范式,通过定义内部计算权限并引入嵌套最小权限网络(Nested Least-Privilege Networks),实现了在不重新训练模型的情况下,于推理阶段动态、可逆地控制模型能力访问,从而在保障安全的同时最小化功能损失。

Paulius Rauba, Dominykas Seputis, Patrikas Vanagas + 1 more2026-03-05🤖 cs.LG

A Consensus-Bayesian Framework for Detecting Malicious Activity in Enterprise Directory Access Graphs

本文提出了一种基于共识的贝叶斯框架,通过模拟企业目录访问图中的意见动态并引入贝叶斯异常评分机制,有效检测了违反强连通组件结构规范的恶意用户行为。

Pratyush Uppuluri, Shilpa Noushad, Sajan Kumar2026-03-05🤖 cs.LG

Exploring Semantic Labeling Strategies for Third-Party Cybersecurity Risk Assessment Questionnaires

本文提出并评估了一种基于半监督语义标签(SSSL)的第三方网络安全风险问卷组织与检索策略,该策略通过聚类和小样本大模型标注有效降低了成本,同时利用语义标签空间显著提升了问卷检索的准确性与一致性。

Ali Nour Eldin, Mohamed Sellami, Walid Gaaloul + 1 more2026-03-05🤖 cs.AI

Skirting Additive Error Barriers for Private Turnstile Streams

本文提出了一种在差分隐私下针对转门流(turnstile stream)的连续发布算法,通过同时允许加性和乘性误差,成功绕过了先前仅考虑加性误差时Ω(T1/4)\Omega(T^{1/4})Ω(T1/4)的下界,实现了仅需对数空间即可达到对数级误差的统计量估计。

Anders Aamand, Justin Y. Chen, Sandeep Silwal2026-03-05💻 cs

Chimera: Neuro-Symbolic Attention Primitives for Trustworthy Dataplane Intelligence

本文提出了 Chimera 框架,通过将注意力机制与符号约束映射到可编程数据平面原语,在严格的硬件限制下实现了兼具高保真度、可解释性与线速处理能力的可信流量分析。

Rong Fu, Xiaowen Ma, Kun Liu + 9 more2026-03-05🤖 cs.AI

Federated Inference: Toward Privacy-Preserving Collaborative and Incentivized Model Serving

本文将联邦推理确立为一种独立于联邦学习的协作范式,通过形式化其核心定义、分析隐私与性能间的系统级权衡,并指出实现可扩展且激励相容的隐私保护推理系统所面临的关键挑战。

Jungwon Seo, Ferhat Ozgur Catak, Chunming Rong + 1 more2026-03-05🤖 cs.AI

Sleeper Cell: Injecting Latent Malice Temporal Backdoors into Tool-Using LLMs

本文提出了一种名为"Sleeper Cell"的新型攻击方法,通过结合 LoRA 微调与 GRPO 强化学习的两阶段框架,在工具使用型大语言模型中植入潜伏式后门,使其在保持基准性能的同时仅在特定触发条件下执行恶意操作并伪装成正常响应。

Bhanu Pallakonda, Mikkel Hindsbo, Sina Ehsani + 1 more2026-03-05🤖 cs.AI

Zero-Knowledge Federated Learning with Lattice-Based Hybrid Encryption for Quantum-Resilient Medical AI

本文提出了名为 ZKFL-PQ 的量子安全联邦学习协议,通过融合 ML-KEM 密钥封装、格基零知识证明和 BFV 同态加密技术,在确保医疗数据隐私与模型完整性的同时,有效抵御了梯度反演攻击、拜占庭投毒及“现在收集、未来解密”的量子威胁。

Edouard Lansiaux2026-03-05🤖 cs.AI

On Google's SynthID-Text LLM Watermarking System: Theoretical Analysis and Empirical Validation

本文首次对 Google 的 SynthID-Text 文本水印系统进行了理论分析与实证验证,揭示了其基于锦标赛的采样机制在不同评分策略下的检测性能与鲁棒性,并提出了针对该系统的层膨胀攻击方法。

Romina Omidi, Yun Dong, Binghui Wang2026-03-05🤖 cs.AI
← 上一页下一页 →

喜欢这篇解读?每天收到一篇类似的。

请查收邮箱确认订阅。

出了点问题,再试一次?

无垃圾邮件,随时退订。

Gist.Science
关于Testimonials隐私Contact

感谢 arXiv、bioRxiv 和 medRxiv 提供的开放获取互操作性。

Gist.Science is a product of Bition B.V.
Verdunplein 17, 5627SZ Eindhoven
KvK: 95743731 | BTW-ID: NL867271966B01
mail@gist.science

荷兰制造 🇳🇱