FlexServe: A Fast and Secure LLM Serving System for Mobile Devices with Flexible Resource Isolation

FlexServe 是一种专为移动设备设计的快速安全 LLM 服务系统,通过引入灵活的资源隔离机制(Flex-Mem 和 Flex-NPU)实现内存与 NPU 在保护模式与未保护模式间的高效切换,并结合 LLM 感知的内存管理、安全推理流水线及多模型调度器,在 ARM TrustZone 环境下显著提升了推理速度与多模型工作流的执行效率。

Yinpeng Wu, Yitong Chen, Lixiang Wang, Jinyu Gu, Zhichao Hua, Yubin XiaWed, 11 Ma🤖 cs.LG

AgenticCyOps: Securing Multi-Agentic AI Integration in Enterprise Cyber Operations

本文提出了 AgenticCyOps 框架,通过系统性分解多智能体系统的攻击面、确立工具编排与内存管理为核心信任边界,并制定五项防御原则,为符合主流合规标准的 enterprise 级安全运营中心(SOC)工作流提供了纵深防御架构,显著降低了可被利用的信任边界。

Shaswata Mitra, Raj Patel, Sudip Mittal, Md Rayhanur Rahman, Shahram RahimiWed, 11 Ma💻 cs

Fast and Optimal Differentially Private Frequent-Substring Mining

该论文提出了一种新的ε\varepsilon-差分隐私算法,通过引入基于频繁前后缀结构的候选生成策略和基于频率关系的剪枝技术,在保持近最优误差的同时,将频繁子串挖掘的空间和时间复杂度从之前的O(n24)O(n^2\ell^4)显著降低至O(n+Σ)O(n \ell+ |\Sigma| )O(nlogΣ+Σ)O(n \ell\log |\Sigma| + |\Sigma| ),从而实现了可扩展的隐私保护子串挖掘。

Peaker Guo, Rayne Holland, Hao WuWed, 11 Ma💻 cs

Reasoning-Oriented Programming: Chaining Semantic Gadgets to Jailbreak Large Vision Language Models

该论文提出了名为"Reasoning-Oriented Programming"的新型攻击范式,通过构建框架\tool{}将语义正交的良性视觉组件编排为“语义小工具”,利用大视觉语言模型在后期推理阶段的逻辑合成漏洞来绕过感知层面的安全对齐,从而在多个基准测试中显著优于现有基线并成功诱导模型生成有害内容。

Quanchen Zou, Moyang Chen, Zonghao Ying, Wenzhuo Xu, Yisong Xiao, Deyue Zhang, Dongdong Yang, Zhao Liu, Xiangzheng ZhangWed, 11 Ma💻 cs

ProvAgent: Threat Detection Based on Identity-Behavior Binding and Multi-Agent Collaborative Attack Investigation

本文提出了 ProvAgent 框架,通过结合传统模型的高效初筛、基于图对比学习的细粒度身份 - 行为一致性绑定以及多智能体协作的自主调查机制,有效解决了高级持续性威胁(APT)检测中专家依赖与警报疲劳的矛盾,实现了低成本、高精度的攻击过程重构。

Wenhao Yan, Ning An, Linxu Li, Bingsheng Bi, Bo Jiang, Zhigang Lu, Baoxu Liu, Junrong Liu, Cong DongWed, 11 Ma💻 cs

PixelConfig: Longitudinal Measurement and Reverse-Engineering of Meta Pixel Configurations

该论文提出了名为 PixelConfig 的差分分析框架,通过逆向工程揭示了 Meta Pixel 在健康类网站等场景中默认启用高比例的活动与身份追踪功能,且即便启用了限制追踪的配置,其实际保护效果也极为有限。

Abdullah Ghani (Lahore University of Management Sciences), Yash Vekaria (University of California, Davis), Zubair Shafiq (University of California, Davis)Wed, 11 Ma💻 cs

CyberThreat-Eval: Can Large Language Models Automate Real-World Threat Research?

本文针对现有基准在评估大语言模型自动化网络安全威胁情报(CTI)研究能力方面的不足,提出了基于真实专家工作流和分析师中心指标的"CyberThreat-Eval"基准,揭示了当前模型在处理复杂细节和区分信息真伪方面的局限性,并展示了结合外部知识库与人类反馈的改进方案。

Xiangsen Chen, Xuan Feng, Shuo Chen, Matthieu Maitre, Sudipto Rakshit, Diana Duvieilh, Ashley Picone, Nan TangWed, 11 Ma💬 cs.CL