Unclonable Encryption in the Haar Random Oracle Model

이 논문은 일방향 함수가 존재하지 않을 수도 있는 '마이크로크립트' 환경에서 해라 무작위 오라클 모델을 기반으로 키 재사용이 가능한 암호문 복제 방지 (Unclonable Encryption) 방식을 최초로 제시하며, 이를 위해 경로 기록 프레임워크를 활용한 새로운 '유니터리 재프로그래밍 보조정리'를 증명했습니다.

James Bartusek, Eli GoldinFri, 13 Ma⚛️ quant-ph

KEPo: Knowledge Evolution Poison on Graph-based Retrieval-Augmented Generation

이 논문은 그래프 기반 검색 증강 생성 (GraphRAG) 의 보안 취약점을 공략하기 위해, 외부 데이터베이스에 독성 사건과 지식 진화 경로를 조작하여 지식 그래프를 오염시키고 LLM 의 응답을 악의적으로 조작하는 새로운 공격 기법인 KEPo(Knowledge Evolution Poison) 를 제안하고 그 효과성을 입증합니다.

Qizhi Chen, Chao Qi, Yihong Huang, Muquan Li, Rongzheng Wang, Dongyang Zhang, Ke Qin, Shuang LiangFri, 13 Ma🤖 cs.LG

Taming OpenClaw: Security Analysis and Mitigation of Autonomous LLM Agent Threats

이 논문은 오토노머스 LLM 에이전트인 OpenClaw 의 보안 위협을 분석하기 위해 초기화부터 실행까지의 5 단계 수명 주기 프레임워크를 제시하고, 간접 프롬프트 인젝션 및 메모리 중독 등 복합적 위협을 규명하며 기존 방어 기법의 한계를 지적하고 통합적 보안 아키텍처의 필요성을 강조합니다.

Xinhao Deng, Yixiang Zhang, Jiaqing Wu, Jiaqi Bai, Sibo Yi, Zhuoheng Zou, Yue Xiao, Rennai Qiu, Jianan Ma, Jialuo Chen, Xiaohu Du, Xiaofang Yang, Shiwen Cui, Changhua Meng, Weiqiang Wang, Jiaxing Song, Ke Xu, Qi LiFri, 13 Ma🤖 cs.AI

You Told Me to Do It: Measuring Instructional Text-induced Private Data Leakage in LLM Agents

이 논문은 고권한 LLM 에이전트가 외부 문서에 숨겨진 악성 지시를 신뢰할 수 있는 실행자로 간주하여 실행함으로써 발생하는 구조적 취약점 '신뢰받는 실행자 딜레마'를 규명하고, 이를 통해 문서 기반 지시 주입 공격이 현재까지 효과적인 방어책 없이 심각한 데이터 유출 위협으로 남아있음을 입증합니다.

Ching-Yu Kao, Xinfeng Li, Shenyu Dai, Tianze Qiu, Pengcheng Zhou, Eric Hanchen Jiang, Philip SperlFri, 13 Ma🤖 cs.AI

Understanding LLM Behavior When Encountering User-Supplied Harmful Content in Harmless Tasks

본 논문은 LLM 이 겉보기에 무해한 작업을 수행할 때 사용자 제공 유해 콘텐츠를 처리하는지 여부를 평가한 결과, 최신 모델조차도 인간 윤리 정렬에 실패하여 유해 정보를 계속 처리하는 경향이 있음을 발견하고, 이를 완화하기 위한 안전 조치 강화의 필요성을 제기합니다.

Junjie Chu, Yiting Qu, Ye Leng, Michael Backes, Yun Shen, Savvas Zannettou, Yang ZhangFri, 13 Ma🤖 cs.AI

Delayed Backdoor Attacks: Exploring the Temporal Dimension as a New Attack Surface in Pre-Trained Models

이 논문은 트리거 노출과 악성 행동 발생 사이의 시간적 간격을 활용하여 일상적인 단어를 트리거로 사용하는 '지연 백도어 공격 (DBA)'을 제안하고, 이를 통해 기존 방어 기법을 우회하며 높은 공격 성공률을 보이는 새로운 취약점을 입증했습니다.

Zikang Ding, Haomiao Yang, Meng Hao, Wenbo Jiang, Kunlan Xiang, Runmeng Du, Yijing Liu, Ruichen Zhang, Dusit NiyatoFri, 13 Ma🤖 cs.AI

HomeSafe-Bench: Evaluating Vision-Language Models on Unsafe Action Detection for Embodied Agents in Household Scenarios

이 논문은 가정용 로봇의 안전성을 평가하기 위해 물리 시뮬레이션과 비디오 생성을 결합한 'HomeSafe-Bench' 벤치마크와 실시간 안전 감시를 위한 계층적 'HD-Guard' 아키텍처를 제안하며, 현재 비전 - 언어 모델의 안전 감지 한계를 분석하고 효율성과 정확성 간의 균형을 달성하는 방안을 제시합니다.

Jiayue Pu, Zhongxiang Sun, Zilu Zhang, Xiao Zhang, Jun XuFri, 13 Ma🤖 cs.AI

Cascade: Composing Software-Hardware Attack Gadgets for Adversarial Threat Amplification in Compound AI Systems

이 논문은 전통적인 소프트웨어 및 하드웨어 취약점이 LLM 특유의 알고리즘적 약점과 결합되어 컴파운드 AI 시스템의 무결성과 기밀성을 위협하는 새로운 공격 기법 'Cascade'를 제안하고, 이를 체계화하여 향후 방어 전략 수립의 기초를 마련합니다.

Sarbartha Banerjee, Prateek Sahu, Anjo Vahldiek-Oberwagner, Jose Sanchez Vicarte, Mohit TiwariFri, 13 Ma🤖 cs.AI

Understanding Disclosure Risk in Differential Privacy with Applications to Noise Calibration and Auditing (Extended Version)

이 논문은 기존 재구성 강건성 (ReRo) 의 한계를 지적하고, 차분 프라이버시 (DP) 의 위험을 멤버십 추론부터 데이터 재구성까지 포괄적으로 평가하는 통합 지표인 '재구성 우위 (reconstruction advantage)'를 제안하여 DP 노이즈 보정 및 감사의 정확성을 높이는 방법을 제시합니다.

Patricia Guerra-Balboa, Annika Sauer, Héber H. Arcolezi, Thorsten StrufeFri, 13 Ma🔢 math

STAMP: Selective Task-Aware Mechanism for Text Privacy

이 논문은 토큰의 작업 중요도와 프라이버시 민감도를 고려하여 프라이버시 예산을 선택적으로 할당하고, 임베딩의 방향만 교란시키는 '극성 (polar) 메커니즘'을 도입하여 프라이버시 보호와 작업 유용성 간의 균형을 획기적으로 개선한 텍스트 프라이버시 프레임워크인 STAMP 를 제안합니다.

Fengwei Tian, Payel Bhattacharjee, Heidi Hanson, Geoffrey D. Rubin, Joseph Y. Lo, Ravi TandonFri, 13 Ma🤖 cs.LG

Automated TEE Adaptation with LLMs: Identifying, Transforming, and Porting Sensitive Functions in Programs

이 논문은 개발자의 개입을 최소화하여 기존 프로그램의 민감한 함수를 식별하고 TEE(신뢰 실행 환경) 호환 버전으로 자동 변환하는 최초의 LLM 기반 도구인 AUTOTEE 를 제안하고, 자바와 파이썬 환경에서 높은 정확도와 성공률을 입증합니다.

Ruidong Han, Zhou Yang, Chengyan Ma, Ye Liu, Yuqing Niu, Siqi Ma, Debin Gao, David Lo2026-03-06🔒 cs.CR

Accurate BGV Parameters Selection: Accounting for Secret and Public Key Dependencies in Average-Case Analysis

이 논문은 BGV 암호 방식의 효율성과 보안을 최적화하기 위해 동일한 키로 생성된 오차 간의 의존성을 고려한 새로운 평균 사례 분석 기법을 제안하여, 곱셈 연산 시 발생하는 노이즈 성장을 정밀하게 모델링하고 라이브러리에 구애받지 않는 정확한 파라미터 선택 가이드라인을 제시합니다.

Beatrice Biasioli, Chiara Marcolla, Nadir Murru, Matilda Urani2026-03-06🔒 cs.CR