A Survey on Decentralized Federated Learning

Ce sondage examine systématiquement les méthodes d'apprentissage fédéré décentralisé (DFL) jusqu'en 2026, en les classant selon deux architectures, en proposant une taxonomie centrée sur les défis, en évaluant les pratiques actuelles et en identifiant des axes de recherche prioritaires pour renforcer la sécurité, la vie privée et les mécanismes d'incitation dans des environnements sans coordinateur central.

Edoardo Gabrielli, Anthony Di Pietro, Dario Fenoglio, Giovanni Pica, Gabriele TolomeiWed, 11 Ma🤖 cs.LG

Robustness Over Time: Understanding Adversarial Examples' Effectiveness on Longitudinal Versions of Large Language Models

Cette étude longitudinale révèle que les mises à jour successives des grands modèles de langage (GPT, Llama, Qwen) n'améliorent pas systématiquement leur robustesse face aux exemples adverses (erreurs de classification, jailbreaks et hallucinations), montrant parfois même une dégradation des performances malgré des améliorations ciblées.

Yugeng Liu, Tianshuo Cong, Zhengyu Zhao, Michael Backes, Yun Shen, Yang ZhangWed, 11 Ma💻 cs

Learning with Errors over Group Rings Constructed by Semi-direct Product

Cet article propose deux réductions quantiques polynomiales établissant la sécurité du problème d'apprentissage avec erreurs sur les anneaux de groupes non commutatifs (\GRLWE\GRLWE) à partir du problème du vecteur indépendant le plus court (\SIVP\SIVP) dans les réseaux idéaux, ouvrant ainsi la voie à la construction de systèmes cryptographiques publics sémantiquement sûrs.

Jiaqi Liu, Fang-Wei FuWed, 11 Ma🔢 math

VisPoison: An Effective Backdoor Attack Framework for Tabular Data Visualization Models

Le papier présente VisPoison, un cadre d'attaque par backdoor qui exploite l'empoisonnement des données pour compromettre les modèles de visualisation de données textuelles, permettant aux attaquants de provoquer des fuites de données, des visualisations trompeuses ou des dénis de service avec un taux de réussite supérieur à 90 %.

Shuaimin Li, Chen Jason Zhang, Xuanang Chen, Anni Peng, Zhuoyue Wan, Yuanfeng Song, Shiwen Ni, Min Yang, Fei Hao, Raymond Chi-Wing WongWed, 11 Ma💻 cs

MCP Bridge: A Lightweight, LLM-Agnostic RESTful Proxy for Model Context Protocol Servers

Ce papier présente MCP Bridge, un proxy RESTful léger et agnostique aux LLM qui surmonte les limitations des implémentations MCP actuelles en permettant leur exécution sur des environnements contraints avec des contrôles de sécurité avancés, tout en démontrant qu'un modèle Qwen3 finement ajusté avec des techniques d'apprentissage par renforcement dépasse les performances des modèles baselines sur le benchmark MCPToolBench++.

Arash Ahmadi, Sarah Sharif, Yaser M. BanadWed, 11 Ma🤖 cs.AI

Lightening the Load: A Cluster-Based Framework for A Lower-Overhead, Provable Website Fingerprinting Defense

Ce papier présente un cadre unifié pour une défense adaptative contre la fingerprinting de sites web, nommé Adaptive Tamaraw, qui combine le regroupement de traces en ensembles d'anonymat et des paramètres de régularisation spécifiques à chaque cluster pour réduire considérablement la surcharge tout en maintenant des garanties de sécurité prouvables.

Khashayar Khajavi, Tao WangWed, 11 Ma💻 cs

On Limits on the Provable Consequences of Quantum Pseudorandomness

Cet article établit, via des séparations d'oracles et un nouveau théorème géométrique, que certaines formes de pseudorandomité quantique ne peuvent pas être construites à partir d'autres, démontrant ainsi que contrairement au cas classique, ces notions ne sont pas équivalentes et que les erreurs d'approximation dans les constructions actuelles sont inhérentes.

Samuel Bouaziz--Ermann, Minki Hhan, Garazi Muguruza, Quoc-Huy VuWed, 11 Ma⚛️ quant-ph

Optimal conversion from Rényi Differential Privacy to ff-Differential Privacy

Ce papier démontre que la règle de conversion optimale d'une garantie de confidentialité différentielle de Rényi (RDP) vers une confidentialité différentielle basée sur les fonctions ff est donnée par l'intersection des régions de confidentialité RDP, établissant ainsi la limite fondamentale de toute conversion noire sans perte d'information.

Anneliese Riess, Juan Felipe Gomez, Flavio du Pin Calmon, Julia Anne Schnabel, Georgios KaissisWed, 11 Ma💻 cs

Clear, Compelling Arguments: Rethinking the Foundations of Frontier AI Safety Cases

Cet article propose de repenser les fondements des dossiers de sécurité pour les systèmes d'IA de pointe en intégrant des méthodologies rigoureuses issues des industries critiques, afin de combler les lacunes des approches actuelles de l'alignement et d'établir un cadre plus robuste et défendable, illustré par une étude de cas sur l'alignement trompeur et les capacités CBRN.

Shaun Feakins, Ibrahim Habli, Phillip MorganWed, 11 Ma🤖 cs.AI

HeteroFedSyn: Differentially Private Tabular Data Synthesis for Heterogeneous Federated Settings

Le papier présente HeteroFedSyn, le premier cadre de synthèse de données tabulaires différentiellement privées conçu spécifiquement pour les environnements fédérés horizontaux hétérogènes, qui améliore l'utilité des données synthétiques grâce à des innovations dans la sélection distribuée des marginales tout en préservant la confidentialité.

Xiaochen Li, Fengyu Gao, Xizixiang Wei, Tianhao Wang, Cong Shen, Jing YangWed, 11 Ma💻 cs

NetDiffuser: Deceiving DNN-Based Network Attack Detection Systems with Diffusion-Generated Adversarial Traffic

Ce papier présente NetDiffuser, un cadre novateur utilisant des modèles de diffusion et un algorithme de catégorisation des fonctionnalités pour générer des exemples adverses naturels capables de tromper efficacement les systèmes de détection d'intrusion basés sur l'apprentissage profond.

Pratyay Kumar, Abu Saleh Md Tayeen, Satyajayant Misra, Huiping Cao, Jiefei Liu, Qixu Gong, Jayashree HarikumarWed, 11 Ma🤖 cs.AI

Quantifying Memorization and Privacy Risks in Genomic Language Models

Cet article présente un cadre d'évaluation de confidentialité multi-vecteurs conçu pour quantifier les risques de mémorisation dans les modèles de langage génomique, démontrant que ces modèles mémorisent effectivement des séquences sensibles et que l'audit de sécurité doit combiner plusieurs méthodes pour évaluer pleinement ces risques.

Alexander Nemecek, Wenbiao Li, Xiaoqian Jiang, Jaideep Vaidya, Erman AydayWed, 11 Ma🤖 cs.LG