Image-based Prompt Injection: Hijacking Multimodal LLMs through Visually Embedded Adversarial Instructions

이 논문은 자연스러운 이미지 내에 인간의 눈에는 보이지 않지만 다중 모달 LLM 의 행동을 조작할 수 있는 적대적 지시문을 숨기는 '이미지 기반 프롬프트 인젝션 (IPI)' 공격 기법을 제안하고, 이를 통해 블랙박스 환경에서 최대 64% 의 공격 성공률을 달성할 수 있음을 보여줍니다.

Neha Nagaraja, Lan Zhang, Zhilong Wang + 2 more2026-03-05🤖 cs.AI

From Threat Intelligence to Firewall Rules: Semantic Relations in Hybrid AI Agent and Expert System Architectures

이 논문은 사이버 위협 인텔리전스 보고서에서 하이퍼님-하위어미 의미 관계를 활용하여 신경-상징적 접근법과 다중 에이전트 시스템을 결합해 CLIPS 기반의 전문가 시스템용 방화벽 규칙을 자동 생성함으로써 웹 보안 위협에 대한 신뢰할 수 있는 대응 능력을 향상시키는 방법을 제시합니다.

Chiara Bonfanti, Davide Colaiacomo, Luca Cagliero + 1 more2026-03-05🤖 cs.AI

A Multi-Dimensional Quality Scoring Framework for Decentralized LLM Inference with Proof of Quality

이 논문은 분산형 LLM 추론을 위한 Proof of Quality(PoQ) 프레임워크에 통합할 수 있도록 출력 품질을 다차원적으로 평가하고, 신뢰성 없는 차원을 제거하여 보정된 복합 점수가 단일 평가자나 합의 기반 베이스라인과 동등하거나 더 나은 성능을 발휘함을 입증합니다.

Arther Tian, Alex Ding, Frank Chen + 2 more2026-03-05🤖 cs.AI

PTOPOFL: Privacy-Preserving Personalised Federated Learning via Persistent Homology

이 논문은 영속적 호몰로지에서 도출된 위상 기술자를 활용하여 그래디언트 공유를 대체함으로써 데이터 재구성 공격 위험을 줄이고 비동일 분포 (Non-IID) 환경에서도 개인화된 학습 성능을 극대화하는 새로운 프라이버시 보호 개인화 연동 학습 프레임워크인 PTOPOFL 을 제안합니다.

Kelly L Vomo-Donfack, Adryel Hoszu, Grégory Ginot + 1 more2026-03-05🤖 cs.LG