Shadow in the Cache: Unveiling and Mitigating Privacy Risks of KV-cache in LLM Inference

Die Arbeit analysiert erstmals die Privatsphärenrisiken des KV-Cache bei LLM-Inferenz, demonstriert durch drei Angriffsvektoren die Rekonstruktion sensibler Eingaben und stellt mit KV-Cloak eine leichte, effiziente Verteidigung vor, die diese Angriffe ohne Genauigkeitsverlust oder nennenswerte Leistungseinbußen abwehrt.

Zhifan Luo, Shuo Shao, Su Zhang, Lijing Zhou, Yuke Hu, Chenxu Zhao, Zhihao Liu, Zhan QinThu, 12 Ma💬 cs.CL

Hierarchical Dual-Strategy Unlearning for Biomedical and Healthcare Intelligence Using Imperfect and Privacy-Sensitive Medical Data

Die vorgestellte Arbeit präsentiert einen hierarchischen Dual-Strategie-Ansatz zum selektiven Vergessen spezifischen Wissens in medizinischen Large Language Models, der durch geometrisch eingeschränkte Gradientenupdates und token-level Interventionen eine hohe Privatsphäre bei gleichzeitiger Erhaltung grundlegender medizinischer Kompetenzen gewährleistet.

Yi Zhang, Chao Zhang, Zijian Li, Tianxiang Xu, Kunyu Zhang, Zhan Gao, Meinuo Li, Xiaohan Zhang, Qichao Qi, Bing ChenThu, 12 Ma🤖 cs.LG

Beyond Max Tokens: Stealthy Resource Amplification via Tool Calling Chains in LLM Agents

Diese Arbeit stellt einen neuen, schwer erkennbaren Denial-of-Service-Angriff auf LLM-Agenten vor, der durch manipulierte Tool-Aufrufketten im Rahmen des Model Context Protocol (MCP) die Kosten und den Ressourcenverbrauch um ein Vielfaches erhöht, ohne dass herkömmliche Filter dies erkennen.

Kaiyu Zhou, Yongsen Zheng, Yicheng He, Meng Xue, Xueluan Gong, Yuji Wang, Xuanye Zhang, Kwok-Yan LamThu, 12 Ma🤖 cs.AI

Defensive Refusal Bias: How Safety Alignment Fails Cyber Defenders

Die Studie zeigt, dass sicherheitsausgerichtete KI-Modelle legitime Cyber-Verteidigungsaufgaben aufgrund von semantischen Ähnlichkeiten mit Angriffsszenarien übermäßig ablehnen, was insbesondere bei kritischen Aufgaben wie Systemhärtung und Malware-Analyse zu einem signifikanten „Defensive Refusal Bias" führt, der durch explizite Autorisierung sogar verschärft wird.

David Campbell, Neil Kale, Udari Madhushani Sehwag, Bert Herring, Nick Price, Dan Borges, Alex Levinson, Christina Q KnightThu, 12 Ma🤖 cs.AI

Evaluating Generalization Mechanisms in Autonomous Cyber Attack Agents

Die Studie zeigt, dass autonome Cyber-Angreifer-Agenten durch IP-Adressänderungen in ihrer Generalisierungsfähigkeit stark beeinträchtigt werden, wobei zwar promptgesteuerte LLM-Agenten die höchste Erfolgswahrscheinlichkeit aufweisen, dies jedoch auf Kosten von Rechenleistung, Transparenz und Zuverlässigkeit geht.

Ondřej Lukáš, Jihoon Shin, Emilia Rivas, Diego Forni, Maria Rigaki, Carlos Catania, Aritran Piplai, Christopher Kiekintveld, Sebastian GarciaThu, 12 Ma💻 cs

SBOMs into Agentic AIBOMs: Schema Extensions, Agentic Orchestration, and Reproducibility Evaluation

Diese Arbeit stellt einen agenten Rahmen für künstliche Intelligenz-Rechnungen (AIBOMs) vor, der statische Software-Bills-of-Materials durch autonome Multi-Agenten-Systeme in dynamische, kontextbewusste Nachweisartefakte erweitert, um Reproduzierbarkeit und Schwachstellenbewertung unter sich ändernden Laufzeitbedingungen zu verbessern.

Petar Radanliev, Carsten Maple, Omar Santos, Kayvan AtefiThu, 12 Ma🤖 cs.AI

Tool Receipts, Not Zero-Knowledge Proofs: Practical Hallucination Detection for AI Agents

Das Paper stellt NabaOS vor, ein leichtgewichtiges Verifizierungsframework, das auf der indischen Erkenntnistheorie Nyaya Shastra basiert und durch HMAC-signierte Tool-Empfangsbestätigungen in Echtzeit Halluzinationen von KI-Agenten mit minimalem Latenzüberhead erkennt, wodurch es die Unpraktikabilität kryptografischer Zero-Knowledge-Beweise für interaktive Anwendungen überwindet.

Abhinaba BasuThu, 12 Ma🤖 cs.AI

Building Privacy-and-Security-Focused Federated Learning Infrastructure for Global Multi-Centre Healthcare Research

Die Studie stellt FLA³ vor, eine governance-fähige Plattform für das föderierte Lernen, die durch integrierte Authentifizierungs-, Autorisierungs- und Abrechnungsmechanismen (AAA) datenschutzkonforme, grenzüberschreitende medizinische Forschung ermöglicht und dabei eine mit zentralisiertem Training vergleichbare Vorhersagegenauigkeit bei 54.446 Blutproben aus 25 Zentren demonstriert.

Fan Zhang, Daniel Kreuter, Javier Fernandez-Marques, BloodCounts Consortium, Gregory Verghese, Bernard Butler, Nicholas Lane, Suthesh Sivapalaratnam, Joseph Taylor, Norbert C. J. de Wit, Nicholas S. Gleadall, Carola-Bibiane Schönlieb, Michael RobertsThu, 12 Ma💻 cs