A PUF-Based Approach for Copy Protection of Intellectual Property in Neural Network Models

Die vorgestellte Arbeit nutzt Physikalisch Unclonbare Funktionen (PUFs), um die Gewichte von neuronalen Netzwerkmodellen an die eindeutigen Hardware-Eigenschaften zu binden, wodurch eine korrekte Ausführung auf geklonten Geräten verhindert und der Schutz des geistigen Eigentums sichergestellt wird.

Daniel Dorfmeister, Flavio Ferrarotti, Bernhard Fischer, Martin Schwandtner, Hannes SochorThu, 12 Ma🤖 cs.LG

Incremental Federated Learning for Intrusion Detection in IoT Networks under Evolving Threat Landscape

Diese Studie analysiert die Leistungsfähigkeit inkrementeller Federated-Learning-Ansätze mit LSTM-Modellen auf dem CICIoMT2024-Datensatz, um ressourcenschonende und drift-resistente Intrusion-Detection-Systeme für IoT-Netzwerke zu entwickeln, wobei sich zeigt, dass kumulative und repräsentative Lernstrategien die stabilste Leistung bieten.

Muaan Ur Rehman, Hayretdin Bahs, Rajesh KalakotiThu, 12 Ma💻 cs

Separating Oblivious and Adaptive Differential Privacy under Continual Observation

Diese Arbeit löst eine offene Frage von Jain et al., indem sie erstmals ein Problem vorstellt, das die Differential-Privacy unter kontinuierlicher Beobachtung in den oblivious und adaptiven Settings trennt, indem sie zeigt, dass ein oblivious Algorithmus über exponentiell viele Zeitschritte hinweg genau bleibt, während jeder adaptive Algorithmus bereits nach konstant vielen Schritten ungenau wird.

Mark Bun, Marco Gaboardi, Connor WagamanThu, 12 Ma💻 cs

SPARK: Jailbreaking T2V Models by Synergistically Prompting Auditory and Recontextualized Knowledge

Die Studie stellt SPARK vor, einen Jailbreak-Angriffsrahmen, der Text-zu-Video-Modelle durch die synergistische Kombination neutraler Szenenanker, latenter auditiver Trigger und stilistischer Modulatoren in benignen Prompts manipuliert, um sicherheitsrelevante Richtlinien zu umgehen und semantisch unsichere Videos zu generieren.

Zonghao Ying, Moyang Chen, Nizhang Li, Zhiqiang Wang, Wenxin Zhang, Quanchen Zou, Zonglei Jing, Aishan Liu, Xianglong LiuMon, 09 Ma💻 cs

Agent Tools Orchestration Leaks More: Dataset, Benchmark, and Mitigation

Diese Arbeit identifiziert und analysiert das neuartige Risiko der „Tools Orchestration Privacy Risk" (TOP-R), bei dem autonome Agenten durch die Kombination nicht-sensitiver Datenfragmente sensible Informationen ableiten, und stellt mit TOP-Bench, dem H-Score sowie wirksamen Minderungsstrategien einen systematischen Rahmen zur Bewertung und Lösung dieses Problems bereit.

Yuxuan Qiao, Dongqin Liu, Hongchang Yang, Wei Zhou, Songlin HuMon, 09 Ma🤖 cs.AI

Window-based Membership Inference Attacks Against Fine-tuned Large Language Models

Die vorgestellte Arbeit führt die Window-Based Comparison (WBC)-Methode ein, die durch die Analyse lokaler Kontextfenster anstelle globaler Durchschnitte die Wirksamkeit von Membership-Inference-Angriffen auf feinabgestimmte Large Language Models erheblich steigert und damit signifikante Datenschutzlücken aufdeckt.

Yuetian Chen, Yuntao Du, Kaiyuan Zhang, Ashish Kundu, Charles Fleming, Bruno Ribeiro, Ninghui LiMon, 09 Ma🤖 cs.AI

Traversal-as-Policy: Log-Distilled Gated Behavior Trees as Externalized, Verifiable Policies for Safe, Robust, and Efficient Agents

Die Arbeit stellt „Traversal-as-Policy" vor, eine Methode, bei der aus erfolgreichen OpenHands-Executions-Logs ein ausführbarer, gate-gesteuerter Verhaltensbaum abgeleitet wird, der als externe, überprüfbare Richtlinie dient und damit die Erfolgsrate von LLM-Agenten signifikant steigert, während Sicherheitsverletzungen nahezu eliminiert und die Kosten gesenkt werden.

Peiran Li, Jiashuo Sun, Fangzhou Lin, Shuo Xing, Tianfu Fu, Suofei Feng, Chaoqun Ni, Zhengzhong TuMon, 09 Ma🤖 cs.AI

Ecosystem Trust Profiles

Dieses Paper stellt das Konzept der Ökosystem-Vertrauensprofile vor, um die autonome Definition und den Austausch von Vertrauensnachweisen zwischen digitalen Ökosystemen zu ermöglichen, und beweist, dass die Interoperabilität zwischen Datenräumen exakt durch den Grad der Gemeinsamkeit in deren Vertrauensprofilen bestimmt wird, wobei ein Fragilitäts-Theorem die Notwendigkeit zusätzlicher Governance-Mechanismen zur Aufrechterhaltung stabilen Vertrauens bei voller Souveränität aufzeigt.

Christoph F. StrnadlMon, 09 Ma💻 cs

Privacy-Preserving Collaborative Medical Image Segmentation Using Latent Transform Networks

Die Arbeit stellt ein privatsphäreschonendes Framework (PPCMI-SF) für die kollaborative medizinische Bildsegmentierung vor, das durch verschlüsselte latente Transformationen und serverseitige Übersetzung eine hohe Segmentierungsgenauigkeit über mehrere Institutionen hinweg ermöglicht, ohne dass sensible Rohdaten geteilt werden müssen.

Saheed Ademola Bello, Muhammad Shahid Jabbar, Muhammad Sohail Ibrahim, Shujaat KhanMon, 09 Ma💻 cs