Enhancing Network Intrusion Detection Systems: A Multi-Layer Ensemble Approach to Mitigate Adversarial Attacks

Este trabalho propõe um mecanismo de defesa em camadas, combinando classificadores empilhados, autoencoders e treinamento adversarial, para aumentar a robustez de Sistemas de Detecção de Intrusão em Redes (NIDS) contra ataques gerados por GANs e FGSM, demonstrando maior resiliência nos conjuntos de dados UNSW-NB15 e NSL-KDD.

Nasim Soltani, Shayan Nejadshamsi, Zakaria Abou El Houda, Raphael Khoury, Kelton A. P. Costa, Tiago H. Falk, Anderson R. Avila2026-03-12🤖 cs.AI

Domain-Adaptive Health Indicator Learning with Degradation-Stage Synchronized Sampling and Cross-Domain Autoencoder

Este artigo propõe um framework de aprendizado adaptativo de domínio que combina amostragem de lotes sincronizada por estágio de degradação e um autoencoder de fusão alinhada com mecanismos de atenção cruzada para superar as discrepâncias de distribuição e capturar dependências temporais de longo prazo, resultando em indicadores de saúde significativamente mais precisos para monitoramento de condições industriais.

Jungho Choo, Hanbyeol Park, Gawon Lee, Yunkyung Park, Hyerim Bae2026-03-12🤖 cs.LG

The Curse and Blessing of Mean Bias in FP4-Quantized LLM Training

O artigo demonstra que a remoção simples do viés de média (mean bias), que é o principal fator de instabilidade numérica e anisotropia no treinamento de LLMs com baixa precisão (FP4), restaura a estabilidade e o desempenho do modelo de forma eficiente, eliminando a necessidade de métodos espectrais complexos como SVD.

Hengjie Cao, Zhendong Huang, Mengyi Chen, Yifeng Yang, Fanqi Yu, Ruijun Huang, Fang Dong, Xin Zhang, Jixian Zhou, Anrui Chen, Mingzhi Dong, Yujiang Wang, Jinlong Hou, Qin Lv, Yuan Cheng, Tun Lu, Fan Yang, Li Shang2026-03-12🤖 cs.LG

UniPINN: A Unified PINN Framework for Multi-task Learning of Diverse Navier-Stokes Equations

O artigo apresenta o UniPINN, uma estrutura unificada de Redes Neurais Informadas por Física (PINNs) que resolve os desafios de aprendizado multi-tarefa em diferentes regimes de equações de Navier-Stokes através de uma arquitetura compartilhada-especializada, um mecanismo de atenção entre fluxos e uma estratégia de alocação dinâmica de pesos, resultando em maior precisão e estabilidade de treinamento.

Dengdi Sun, Jie Chen, Xiao Wang, Jin Tang2026-03-12🤖 cs.AI

G-STAR: End-to-End Global Speaker-Tracking Attributed Recognition

O artigo apresenta o G-STAR, um sistema de ponta a ponta que integra um módulo de rastreamento de falantes temporalmente consciente com um modelo de linguagem de fala (Speech-LLM) para realizar reconhecimento de fala atribuído a falantes com carimbo de tempo em conversas longas e sobrepostas, garantindo consistência de identidade em nível de reunião.

Jing Peng, Ziyi Chen, Haoyu Li, Yucheng Wang, Duo Ma, Mengtian Li, Yunfan Du, Dezhu Xu, Kai Yu, Shuai Wang2026-03-12⚡ eess

Aligning Large Language Models with Searcher Preferences

Este artigo apresenta o SearchLLM, o primeiro modelo de linguagem grande para busca generativa aberta, que utiliza um sistema de recompensa hierárquico e a otimização GRPO para alinhar a síntese de respostas com as preferências dos usuários, garantindo segurança e robustez, com resultados validados por testes online no RedNote que demonstraram melhorias na qualidade de geração e no engajamento.

Wei Wu, Peilun Zhou, Liyi Chen, Qimeng Wang, Chengqiang Lu, Yan Gao, Yi Wu, Yao Hu, Hui Xiong2026-03-12💬 cs.CL

Naïve Exposure of Generative AI Capabilities Undermines Deepfake Detection

Este trabalho demonstra que a exposição ingênua das capacidades de refinamento e raciocínio de sistemas de IA generativa comercial, acessíveis por meio de prompts benignos, mina fundamentalmente os detectores de deepfake modernos ao permitir a criação de imagens que evitam a detecção, preservam a identidade e possuem alta qualidade perceptual, revelando uma lacuna crítica entre os modelos de ameaça atuais e as capacidades reais dessas ferramentas.

Sunpill Kim, Chanwoo Hwang, Minsu Kim, Jae Hong Seo2026-03-12🤖 cs.AI

Resource-constrained Amazons chess decision framework integrating large language models and graph attention

Este artigo propõe um framework híbrido leve para o jogo das Amazonas que integra um Autoencoder de Atenção em Grafos e o GPT-4o-mini para superar limitações de recursos, alcançando desempenho superior ao modelo base e a métodos tradicionais através de filtragem estrutural e dados sintéticos.

Tianhao Qian, Zhuoxuan Li, Jinde Cao, Xinli Shi, Hanjie Liu, Leszek Rutkowski2026-03-12🤖 cs.AI

IH-Challenge: A Training Dataset to Improve Instruction Hierarchy on Frontier LLMs

O artigo apresenta o IH-Challenge, um conjunto de dados de aprendizado por reforço projetado para melhorar a hierarquia de instruções em modelos de linguagem de ponta, resultando em maior robustez contra ataques de segurança, redução de comportamentos inseguros e manutenção da utilidade do modelo.

Chuan Guo (Michael Pokorny), Juan Felipe Ceron Uribe (Michael Pokorny), Sicheng Zhu (Michael Pokorny), Christopher A. Choquette-Choo (Michael Pokorny), Steph Lin (Michael Pokorny), Nikhil Kandpal (Michael Pokorny), Milad Nasr (Michael Pokorny), Rai (Michael Pokorny), Sam Toyer, Miles Wang, Yaodong Yu, Alex Beutel, Kai Xiao2026-03-12🤖 cs.AI

UAV-MARL: Multi-Agent Reinforcement Learning for Time-Critical and Dynamic Medical Supply Delivery

Este artigo apresenta um framework de aprendizado por reforço multiagente baseado em Proximal Policy Optimization (PPO) para coordenar frotas de drones na entrega dinâmica e priorizada de suprimentos médicos, demonstrando, através de dados geográficos reais, que a abordagem PPO clássica supera estratégias assíncronas e sequenciais em cenários de logística de saúde sob incerteza.

Islam Guven, Mehmet Parlak2026-03-12🤖 cs.LG

Prompting with the human-touch: evaluating model-sensitivity of foundation models for musculoskeletal CT segmentation

Este estudo avalia a sensibilidade de 11 modelos fundamentais de segmentação de imagens a prompts humanos em tomografias computadorizadas musculoesqueléticas, revelando que o desempenho varia significativamente entre modelos e estratégias de prompt, e que a performance reportada com prompts ideais tende a superestimar os resultados em cenários reais guiados por humanos.

Caroline Magg, Maaike A. ter Wee, Johannes G. G. Dobbe, Geert J. Streekstra, Leendert Blankevoort, Clara I. Sánchez, Hoel Kervadec2026-03-12🤖 cs.AI

Towards Cognitive Defect Analysis in Active Infrared Thermography with Vision-Text Cues

Este trabalho apresenta um novo framework guiado por linguagem para análise cognitiva de defeitos em compósitos de fibra de carbono usando termografia infravermelha ativa e modelos visão-linguagem pré-treinados, permitindo a detecção e localização de defeitos subsuperficiais em cenários zero-shot sem a necessidade de conjuntos de dados de treinamento específicos.

Mohammed Salah, Eman Ouda, Giuseppe Dell'Avvocato, Fabrizio Sarasini, Ester D'Accardi, Jorge Dias, Davor Svetinovic, Stefano Sfarra, Yusra Abdulrahman2026-03-12⚡ eess

Adaptive RAN Slicing Control via Reward-Free Self-Finetuning Agents

Este artigo propõe um novo framework de auto-ajuste que permite a agentes de IA internalizar experiências em seus parâmetros através de um mecanismo de reflexão bi-perspectiva e aprendizado sem recompensas manuais, superando as limitações de modelos de linguagem tradicionais e demonstrando superioridade em eficiência de amostragem e estabilidade na otimização dinâmica de fatiamento de Redes de Acesso Rádio (RAN).

Yuanhao Li, Haozhe Wang, Geyong Min, Nektarios Georgalas, Wang Miao2026-03-12🤖 cs.AI

CUAAudit: Meta-Evaluation of Vision-Language Models as Auditors of Autonomous Computer-Use Agents

Este artigo apresenta o CUAAudit, uma meta-avaliação em larga escala que demonstra que, embora os Modelos Visuais-Linguísticos (VLMs) possam atuar como auditores eficazes para Agentes de Uso de Computador (CUAs), eles enfrentam limitações significativas em ambientes complexos e heterogêneos, exibindo degradação de desempenho e desacordo substancial entre modelos, o que destaca a necessidade crítica de considerar a confiabilidade e a incerteza dos avaliadores na implantação de CUAs no mundo real.

Marta Sumyk, Oleksandr Kosovan2026-03-12🤖 cs.AI

Does LLM Alignment Really Need Diversity? An Empirical Study of Adapting RLVR Methods for Moral Reasoning

Este estudo empírico demonstra que, ao contrário da hipótese de que o alinhamento moral exige algoritmos focados em diversidade, métodos de maximização de recompensa (RLVR) são igualmente eficazes para o raciocínio moral, pois as respostas de alta recompensa nesse domínio formam distribuições mais concentradas do que em tarefas matemáticas.

Zhaowei Zhang, Xiaohan Liu, Xuekai Zhu, Junchao Huang, Ceyao Zhang, Zhiyuan Feng, Yaodong Yang, Xiaoyuan Yi, Xing Xie2026-03-12🤖 cs.AI