A Survey on Decentralized Federated Learning

Diese Arbeit bietet eine umfassende Übersicht über dezentriertes Federated Learning (DFL) von 2018 bis 2026, klassifiziert die Methoden in traditionelle und blockchain-basierte Ansätze, entwickelt eine einheitliche, herausforderungsorientierte Taxonomie und identifiziert kritische Forschungsbedarfslücken in Bezug auf Topologie, Privatsphäre, Anreize und Modellziele.

Edoardo Gabrielli, Anthony Di Pietro, Dario Fenoglio, Giovanni Pica, Gabriele TolomeiWed, 11 Ma🤖 cs.LG

Robustness Over Time: Understanding Adversarial Examples' Effectiveness on Longitudinal Versions of Large Language Models

Diese Studie untersucht die longitudinale Robustheit von drei prominenten LLM-Familien (GPT, Llama, Qwen) gegenüber Adversarial Examples und zeigt, dass Modell-Updates nicht konsistent zu verbesserten Sicherheitsmerkmalen führen, sondern teilweise zu Verschlechterungen bei Missklassifizierung, Jailbreaks oder Halluzinationen führen können.

Yugeng Liu, Tianshuo Cong, Zhengyu Zhao, Michael Backes, Yun Shen, Yang ZhangWed, 11 Ma💻 cs

VisPoison: An Effective Backdoor Attack Framework for Tabular Data Visualization Models

Die Studie stellt VisPoison vor, ein Backdoor-Angriffsframework, das Text-zu-Visualisierung-Modelle für tabellarische Daten durch Datenvergiftung mit versteckten Auslösern manipuliert, um sensible Daten zu enthüllen, irreführende Visualisierungen zu erzeugen oder Denial-of-Service-Angriffe auszulösen.

Shuaimin Li, Chen Jason Zhang, Xuanang Chen, Anni Peng, Zhuoyue Wan, Yuanfeng Song, Shiwen Ni, Min Yang, Fei Hao, Raymond Chi-Wing WongWed, 11 Ma💻 cs

MCP Bridge: A Lightweight, LLM-Agnostic RESTful Proxy for Model Context Protocol Servers

Die Arbeit stellt MCP Bridge vor, einen leichtgewichtigen, LLM-agnostischen RESTful-Proxy, der die Einschränkungen lokaler MCP-Server umgeht und durch eine sichere, plattformübergreifende Schnittstelle sowie ein speziell für strenge Protokollkonformität optimiertes Qwen3-Modell die Integration von LLMs in ressourcenbeschränkten Umgebungen ermöglicht.

Arash Ahmadi, Sarah Sharif, Yaser M. BanadWed, 11 Ma🤖 cs.AI

Clear, Compelling Arguments: Rethinking the Foundations of Frontier AI Safety Cases

Diese Arbeit kritisiert die aktuellen Ansätze der Alignment-Community für Sicherheitsnachweise bei Frontier-KI-Systemen, leitet Erkenntnisse aus etablierten Sicherheitsverfahren kritischer Industrien ab und entwickelt ein fundierteres Rahmenwerk, um robuste und verteidigbare Sicherheitsnachweise für spezifische Risiken wie täuschende Ausrichtung und CBRN-Fähigkeiten zu erstellen.

Shaun Feakins, Ibrahim Habli, Phillip MorganWed, 11 Ma🤖 cs.AI

HeteroFedSyn: Differentially Private Tabular Data Synthesis for Heterogeneous Federated Settings

Das Paper stellt HeteroFedSyn vor, das erste differenziell private Framework zur Synthese tabellarischer Daten in horizontalen federierten Umgebungen, das durch innovative Techniken zur verteilten Auswahl von Randverteilungen eine hohe Datennützlichkeit trotz heterogener Datenverteilungen und erhöhten Rauschens erreicht.

Xiaochen Li, Fengyu Gao, Xizixiang Wei, Tianhao Wang, Cong Shen, Jing YangWed, 11 Ma💻 cs

NetDiffuser: Deceiving DNN-Based Network Attack Detection Systems with Diffusion-Generated Adversarial Traffic

Die Arbeit stellt NetDiffuser vor, ein neuartiges Framework, das mithilfe von Diffusionsmodellen und einer speziellen Feature-Kategorisierung natürlich wirkende adversarial Beispiele erzeugt, um Deep-Learning-basierte Netzwerkintrusionserkennungssysteme effektiver zu täuschen als bisherige Angriffe.

Pratyay Kumar, Abu Saleh Md Tayeen, Satyajayant Misra, Huiping Cao, Jiefei Liu, Qixu Gong, Jayashree HarikumarWed, 11 Ma🤖 cs.AI