Robustness Over Time: Understanding Adversarial Examples' Effectiveness on Longitudinal Versions of Large Language Models

이 논문은 GPT, Llama, Qwen 등 주요 대규모 언어 모델 (LLM) 계열의 장기적 업데이트를 분석하여, 버전이 올라갈수록 항상 보안과 안전성이 향상되는 것은 아니며 오히려 특정 공격 유형에 대한 취약성이 심화되거나 모델 크기가 커져도 견고성이 균일하게 개선되지 않을 수 있음을 규명했습니다.

Yugeng Liu, Tianshuo Cong, Zhengyu Zhao, Michael Backes, Yun Shen, Yang ZhangWed, 11 Ma💻 cs

VisPoison: An Effective Backdoor Attack Framework for Tabular Data Visualization Models

이 논문은 표본 데이터 시각화 모델의 보안 취약점을 드러내기 위해 희귀 단어 패턴이나 첫 번째 단어 프롬프트와 같은 은밀한 트리거를 활용하여 민감 정보 유출, 오도성 시각화, 서비스 거부 공격을 수행하는 백도어 공격 프레임워크 'VisPoison'을 제안하고, 기존 방어 기법의 한계를 지적하며 보다 견고한 시스템의 필요성을 강조합니다.

Shuaimin Li, Chen Jason Zhang, Xuanang Chen, Anni Peng, Zhuoyue Wan, Yuanfeng Song, Shiwen Ni, Min Yang, Fei Hao, Raymond Chi-Wing WongWed, 11 Ma💻 cs

Lightening the Load: A Cluster-Based Framework for A Lower-Overhead, Provable Website Fingerprinting Defense

이 논문은 정규화 기반의 효과성과 슈퍼시퀀스 방식의 증명 가능한 보안을 결합하여, 클러스터링된 행동 패턴에 따라 적응적으로 패딩 매개변수를 조정함으로써 위버사이트 지문 공격에 대한 방어 효율성을 극대화하면서도 정보이론적 보안을 유지하는 'Adaptive Tamaraw'라는 새로운 프레임워크를 제안합니다.

Khashayar Khajavi, Tao WangWed, 11 Ma💻 cs

On Limits on the Provable Consequences of Quantum Pseudorandomness

이 논문은 양의 무작위성 (quantum pseudorandomness) 의 다양한 개념들이 고전적 경우와 달리 서로 등가적이지 않을 수 있음을 보여주기 위해, 로그 길이의 출력 PRFSG 는 존재하지만 양자 계산 가능한 의사난수 생성기 (QPRG) 는 존재하지 않는 단위 오라클 분리를 증명하고, 이를 위해 새로운 기하학적 장벽 정리를 제시합니다.

Samuel Bouaziz--Ermann, Minki Hhan, Garazi Muguruza, Quoc-Huy VuWed, 11 Ma⚛️ quant-ph

Clear, Compelling Arguments: Rethinking the Foundations of Frontier AI Safety Cases

이 논문은 항공, 원자력 등 안전 중대 산업에서 발전한 안전 사례 (safety case) 방법론의 교훈을 바탕으로, 정렬 (alignment) 커뮤니티의 기존 접근법의 한계를 지적하고 프런티어 AI 시스템의 안전성을 입증하기 위한 더 견고하고 포괄적인 안전 사례 프레임워크를 제안합니다.

Shaun Feakins, Ibrahim Habli, Phillip MorganWed, 11 Ma🤖 cs.AI

HeteroFedSyn: Differentially Private Tabular Data Synthesis for Heterogeneous Federated Settings

이 논문은 수평적 연동 환경에서 이질적인 데이터 분포를 고려하여 기존 방법들의 한계를 극복하고 중앙집중식 합성과 유사한 유틸리티를 달성하는 최초의 차분 프라이버시 기반 표본 데이터 생성 프레임워크인 HeteroFedSyn 을 제안합니다.

Xiaochen Li, Fengyu Gao, Xizixiang Wei, Tianhao Wang, Cong Shen, Jing YangWed, 11 Ma💻 cs

NetDiffuser: Deceiving DNN-Based Network Attack Detection Systems with Diffusion-Generated Adversarial Traffic

이 논문은 네트워크 트래픽의 독립적인 특징을 식별하고 확산 모델을 활용하여 자연스러운 적대적 예제를 생성함으로써 딥러닝 기반 네트워크 침입 탐지 시스템의 성능을 효과적으로 우회하는 새로운 프레임워크 'NetDiffuser'를 제안합니다.

Pratyay Kumar, Abu Saleh Md Tayeen, Satyajayant Misra, Huiping Cao, Jiefei Liu, Qixu Gong, Jayashree HarikumarWed, 11 Ma🤖 cs.AI

Quantifying Memorization and Privacy Risks in Genomic Language Models

이 논문은 유전체 언어 모델 (GLM) 의 프라이버시 위험을 정량화하기 위해 퍼플렉시티 기반 탐지, 카나리 시퀀스 추출, 멤버십 추론을 통합한 다중 벡터 평가 프레임워크를 제안하고, 반복 횟수와 모델 용량이 암기 위험에 미치는 영향을 실증적으로 분석했습니다.

Alexander Nemecek, Wenbiao Li, Xiaoqian Jiang, Jaideep Vaidya, Erman AydayWed, 11 Ma🤖 cs.LG

Security Considerations for Multi-agent Systems

이 논문은 다중 에이전트 시스템 (MAS) 의 고유한 보안 위협을 체계적으로 분석하고 16 가지 기존 보안 프레임워크를 평가한 결과, 현재 어떤 프레임워크도 모든 위협 카테고리를 충분히 커버하지 못하며 OWASP Agentic Security Initiative 와 CDAO Responsible AI 툴킷이 각각 설계 및 운영 단계에서 상대적으로 가장 높은 점수를 받았음을 밝혔습니다.

Tam Nguyen, Moses Ndebugre, Dheeraj ArremsettyWed, 11 Ma🤖 cs.AI

Lockbox -- A Zero Trust Architecture for Secure Processing of Sensitive Cloud Workloads

이 논문은 민감한 클라우드 워크로드를 처리하는 기업용 제로 트러스트 아키텍처인 'Lockbox'를 제안하며, 명시적 신뢰 검증과 강력한 격리, 최소 권한 원칙을 통해 AI 기반 분석과 같은 고급 기능을 도입하면서도 보안 태세를 유지할 수 있도록 합니다.

Vamshi Krishna Thotempudi, Mahima Agarwal, Raghav Batta, Anjali MangalWed, 11 Ma💻 cs