Pwned: How Often Are Americans' Online Accounts Breached?

Este estudo combina dados de uma amostra representativa de adultos americanos com informações do serviço "Have I Been Pwned" para estimar que, no mínimo, 82,84% da população dos EUA teve suas contas online violadas, com uma média de pelo menos três violações por pessoa, sendo que grupos como mulheres, brancos, pessoas de meia-idade e com maior nível educacional apresentam maiores taxas de exposição.

Ken Cor, Gaurav SoodWed, 11 Ma💻 cs

A Survey on Decentralized Federated Learning

Este artigo apresenta uma revisão sistemática do Aprendizado Federado Descentralizado (DFL) de 2018 a 2026, organizando os métodos em famílias arquitetônicas, propondo uma taxonomia baseada em desafios, analisando práticas de avaliação e delineando direções futuras para pesquisas em segurança, privacidade e incentivos em ambientes descentralizados.

Edoardo Gabrielli, Anthony Di Pietro, Dario Fenoglio, Giovanni Pica, Gabriele TolomeiWed, 11 Ma🤖 cs.LG

Robustness Over Time: Understanding Adversarial Examples' Effectiveness on Longitudinal Versions of Large Language Models

Este estudo longitudinal analisa a evolução da robustez adversarial em três famílias de modelos de linguagem (GPT, Llama e Qwen), revelando que atualizações sucessivas nem sempre melhoram a segurança e que tamanhos maiores não garantem necessariamente maior resistência a ataques como jailbreaks, alucinações ou erros de classificação.

Yugeng Liu, Tianshuo Cong, Zhengyu Zhao, Michael Backes, Yun Shen, Yang ZhangWed, 11 Ma💻 cs

Learning with Errors over Group Rings Constructed by Semi-direct Product

Este artigo apresenta reduções quânticas em tempo polinomial que estabelecem a segurança do problema de Aprendizado com Erros sobre Anéis de Grupos (\GRLWE\GRLWE), construído a partir de produtos semi-diretos de grupos cíclicos não comutativos, a partir de problemas de pior caso em reticulados ideais, permitindo assim a construção de sistemas de criptografia de chave pública semanticamente seguros.

Jiaqi Liu, Fang-Wei FuWed, 11 Ma🔢 math

VisPoison: An Effective Backdoor Attack Framework for Tabular Data Visualization Models

O artigo apresenta o VisPoison, um framework de ataque de backdoor que explora vulnerabilidades em modelos de texto-para-visualização de dados tabulares através de envenenamento de dados e gatilhos sigilosos, permitindo a extração de informações sensíveis, a geração de visualizações enganosas ou a negação de serviço com alta taxa de sucesso e baixa eficácia das defesas existentes.

Shuaimin Li, Chen Jason Zhang, Xuanang Chen, Anni Peng, Zhuoyue Wan, Yuanfeng Song, Shiwen Ni, Min Yang, Fei Hao, Raymond Chi-Wing WongWed, 11 Ma💻 cs

MCP Bridge: A Lightweight, LLM-Agnostic RESTful Proxy for Model Context Protocol Servers

Este artigo apresenta o MCP Bridge, um proxy RESTful leve e agnóstico a modelos que supera as limitações de execução local do Protocolo de Contexto de Modelo (MCP) ao oferecer conectividade segura e multiplataforma, complementado por modelos Qwen otimizados via aprendizado por reforço que alcançam desempenho superior em tarefas de ferramentas.

Arash Ahmadi, Sarah Sharif, Yaser M. BanadWed, 11 Ma🤖 cs.AI

On Limits on the Provable Consequences of Quantum Pseudorandomness

Este artigo apresenta evidências de que diferentes noções de pseudorrandômidade quântica não são equivalentes, provando separações oraculares que demonstram limitações na construção de geradores de estados pseudorrandômicos a partir de outras formas de pseudorrandômidade, o que contrasta com o comportamento observado no cenário clássico.

Samuel Bouaziz--Ermann, Minki Hhan, Garazi Muguruza, Quoc-Huy VuWed, 11 Ma⚛️ quant-ph

Optimal conversion from Rényi Differential Privacy to ff-Differential Privacy

O artigo prova a conjectura de que a regra de conversão baseada na interseção das regiões de privacidade RDP de ordem única é ótima e fundamental para mapear perfis de Privacidade Diferencial de Rényi para funções de privacidade ff, estabelecendo o limite teórico intransponível para inferências de privacidade baseadas apenas em garantias RDP.

Anneliese Riess, Juan Felipe Gomez, Flavio du Pin Calmon, Julia Anne Schnabel, Georgios KaissisWed, 11 Ma💻 cs

Clear, Compelling Arguments: Rethinking the Foundations of Frontier AI Safety Cases

Este artigo propõe uma reavaliação das abordagens atuais para casos de segurança de IA de fronteira, identificando limitações nas metodologias existentes da comunidade de alinhamento e oferecendo um novo quadro teórico e prático, fundamentado em lições de indústrias de segurança crítica, para desenvolver argumentos de segurança mais robustos e defensáveis, com foco em riscos como alinhamento enganoso e capacidades CBRN.

Shaun Feakins, Ibrahim Habli, Phillip MorganWed, 11 Ma🤖 cs.AI

HeteroFedSyn: Differentially Private Tabular Data Synthesis for Heterogeneous Federated Settings

O artigo apresenta o HeteroFedSyn, o primeiro framework de síntese de dados tabulares com privacidade diferencial projetado especificamente para ambientes federados heterogêneos, que utiliza métricas de dependência otimizadas e estratégias de seleção adaptativa para gerar dados sintéticos de alta utilidade sem violar a privacidade dos participantes.

Xiaochen Li, Fengyu Gao, Xizixiang Wei, Tianhao Wang, Cong Shen, Jing YangWed, 11 Ma💻 cs

NetDiffuser: Deceiving DNN-Based Network Attack Detection Systems with Diffusion-Generated Adversarial Traffic

O artigo apresenta o NetDiffuser, um novo framework que utiliza modelos de difusão e uma categorização inovadora de características para gerar exemplos adversariais naturais (NAEs) altamente eficazes e indistinguíveis, capazes de enganar sistemas de detecção de intrusão baseados em aprendizado profundo com taxas de sucesso significativamente superiores às dos métodos existentes.

Pratyay Kumar, Abu Saleh Md Tayeen, Satyajayant Misra, Huiping Cao, Jiefei Liu, Qixu Gong, Jayashree HarikumarWed, 11 Ma🤖 cs.AI

Quantifying Memorization and Privacy Risks in Genomic Language Models

Este artigo apresenta um quadro de avaliação de privacidade abrangente que integra múltiplos métodos para quantificar e auditar os riscos de memorização em Modelos de Linguagem Genômica, demonstrando que a exposição de dados sensíveis varia conforme a arquitetura e o regime de treinamento, exigindo assim uma abordagem de auditoria multifacetada.

Alexander Nemecek, Wenbiao Li, Xiaoqian Jiang, Jaideep Vaidya, Erman AydayWed, 11 Ma🤖 cs.LG

Lockbox -- A Zero Trust Architecture for Secure Processing of Sensitive Cloud Workloads

O artigo apresenta o Lockbox, uma arquitetura de Confiança Zero projetada para garantir o processamento seguro de cargas de trabalho sensíveis na nuvem, aplicando verificação explícita de confiança, isolamento forte e acesso de menor privilégio para permitir o uso de ferramentas avançadas, como IA, sem comprometer a segurança.

Vamshi Krishna Thotempudi, Mahima Agarwal, Raghav Batta, Anjali MangalWed, 11 Ma💻 cs