A PUF-Based Approach for Copy Protection of Intellectual Property in Neural Network Models

Cet article propose une méthode de protection des droits de propriété intellectuelle dans les réseaux de neurones en liant leurs poids à des caractéristiques matérielles uniques via des fonctions physiques non clonables (PUF), rendant ainsi l'exécution du modèle impossible sur du matériel cloné.

Daniel Dorfmeister, Flavio Ferrarotti, Bernhard Fischer, Martin Schwandtner, Hannes SochorThu, 12 Ma🤖 cs.LG

Incremental Federated Learning for Intrusion Detection in IoT Networks under Evolving Threat Landscape

Cette étude propose une analyse de l'apprentissage fédéré incrémental avec des modèles LSTM pour améliorer la résilience des systèmes de détection d'intrusion dans les réseaux IoT face au dérive conceptuelle, en démontrant que les méthodes d'apprentissage cumulatif et représentatif offrent les performances les plus stables tout en respectant les contraintes de ressources.

Muaan Ur Rehman, Hayretdin Bahs, Rajesh KalakotiThu, 12 Ma💻 cs

Re-Evaluating EVMBench: Are AI Agents Ready for Smart Contract Security?

Cette étude remet en question la fiabilité du benchmark EVMbench en démontrant que les agents d'IA actuels, dont les performances varient selon la configuration et sont limitées par des risques de contamination des données, ne peuvent pas encore remplacer l'audit humain mais doivent être intégrés dans un flux de travail collaboratif pour la sécurité des contrats intelligents.

Chaoyuan Peng, Lei Wu, Yajin ZhouThu, 12 Ma💻 cs

SPARK: Jailbreaking T2V Models by Synergistically Prompting Auditory and Recontextualized Knowledge

Ce papier présente SPARK, un cadre d'attaque par contournement (jailbreak) pour les modèles texte-vers-vidéo qui exploite des indices auditifs latents et des connaissances recontextualisées dans des prompts apparemment anodins pour générer du contenu non sécurisé tout en évitant les défenses.

Zonghao Ying, Moyang Chen, Nizhang Li, Zhiqiang Wang, Wenxin Zhang, Quanchen Zou, Zonglei Jing, Aishan Liu, Xianglong LiuMon, 09 Ma💻 cs

Window-based Membership Inference Attacks Against Fine-tuned Large Language Models

Ce papier présente WBC, une nouvelle méthode d'attaque par inférence de membre qui surpasse les approches existantes en exploitant des signaux de mémorisation localisés via une comparaison glissante de fenêtres, révélant ainsi des vulnérabilités critiques de confidentialité dans les grands modèles de langage affinés.

Yuetian Chen, Yuntao Du, Kaiyuan Zhang, Ashish Kundu, Charles Fleming, Bruno Ribeiro, Ninghui LiMon, 09 Ma🤖 cs.AI

Traversal-as-Policy: Log-Distilled Gated Behavior Trees as Externalized, Verifiable Policies for Safe, Robust, and Efficient Agents

Ce papier propose Traversal-as-Policy, une méthode qui transforme les logs d'exécution OpenHands en arbres de comportement à portes (GBT) exécutables pour remplacer la génération de politique implicite par une navigation contrôlée et vérifiable, améliorant ainsi considérablement le taux de réussite, la sécurité et l'efficacité des agents LLM sur des tâches complexes.

Peiran Li, Jiashuo Sun, Fangzhou Lin, Shuo Xing, Tianfu Fu, Suofei Feng, Chaoqun Ni, Zhengzhong TuMon, 09 Ma🤖 cs.AI

Privacy-Preserving Collaborative Medical Image Segmentation Using Latent Transform Networks

Cet article présente le PPCMI-SF, un cadre collaboratif de segmentation d'images médicales qui préserve la confidentialité des données en utilisant des transformées latentes chiffrées et des autoencodeurs, permettant ainsi d'atteindre une précision élevée et une robustesse contre les attaques sans partager les données brutes entre institutions.

Saheed Ademola Bello, Muhammad Shahid Jabbar, Muhammad Sohail Ibrahim, Shujaat KhanMon, 09 Ma💻 cs