Enhancing Network Intrusion Detection Systems: A Multi-Layer Ensemble Approach to Mitigate Adversarial Attacks

Este trabajo propone un mecanismo de defensa multinivel que combina clasificadores apilados, un autoencoder y entrenamiento adversarial para mejorar la robustez de los sistemas de detección de intrusos en redes frente a ataques generados mediante GAN y FGSM.

Nasim Soltani, Shayan Nejadshamsi, Zakaria Abou El Houda, Raphael Khoury, Kelton A. P. Costa, Tiago H. Falk, Anderson R. Avila2026-03-12🤖 cs.AI

Domain-Adaptive Health Indicator Learning with Degradation-Stage Synchronized Sampling and Cross-Domain Autoencoder

Este artículo presenta un marco de aprendizaje de indicadores de salud adaptativo al dominio que combina un muestreo de lotes sincronizado por etapas de degradación y un autoencoder de fusión alineada entre dominios con mecanismos de atención cruzada para superar las discrepancias de distribución y las limitaciones estructurales en la modelado de señales de vibración complejas, logrando un rendimiento superior en sistemas de defensa y rodamientos industriales.

Jungho Choo, Hanbyeol Park, Gawon Lee, Yunkyung Park, Hyerim Bae2026-03-12🤖 cs.LG

The Curse and Blessing of Mean Bias in FP4-Quantized LLM Training

El artículo demuestra que la eliminación de un sesgo de media coherente de rango uno, principal causante de la inestabilidad numérica en el entrenamiento de modelos de lenguaje con cuantización FP4, permite recuperar la estabilidad y el rendimiento cercanos a BF16 mediante una operación simple y eficiente en hardware.

Hengjie Cao, Zhendong Huang, Mengyi Chen, Yifeng Yang, Fanqi Yu, Ruijun Huang, Fang Dong, Xin Zhang, Jixian Zhou, Anrui Chen, Mingzhi Dong, Yujiang Wang, Jinlong Hou, Qin Lv, Yuan Cheng, Tun Lu, Fan Yang, Li Shang2026-03-12🤖 cs.LG

FAR-Dex: Few-shot Data Augmentation and Adaptive Residual Policy Refinement for Dexterous Manipulation

El artículo presenta FAR-Dex, un marco jerárquico que combina la generación de datos aumentados con pocas muestras y un refinamiento adaptativo de políticas residuales para lograr una manipulación hábil robusta y precisa mediante la coordinación brazo-mano, superando a los métodos actuales tanto en simulación como en el mundo real.

Yushan Bai, Fulin Chen, Hongzheng Sun, Yuchuang Tong, En Li, Zhengtao Zhang2026-03-12🤖 cs.AI

UniPINN: A Unified PINN Framework for Multi-task Learning of Diverse Navier-Stokes Equations

El artículo presenta UniPINN, un marco unificado de Redes Neuronales Informadas por Física (PINN) que aborda los desafíos del aprendizaje multi-tarea en ecuaciones de Navier-Stokes diversas mediante una arquitectura compartida-especializada, un mecanismo de atención entre flujos y una asignación dinámica de pesos, logrando así una mayor precisión y estabilidad en comparación con los métodos existentes.

Dengdi Sun, Jie Chen, Xiao Wang, Jin Tang2026-03-12🤖 cs.AI

G-STAR: End-to-End Global Speaker-Tracking Attributed Recognition

El artículo presenta G-STAR, un sistema de reconocimiento automático de habla (ASR) con atribución de hablantes de extremo a extremo que combina un módulo de seguimiento temporal con un modelo de lenguaje grande (Speech-LLM) para generar transcripciones etiquetadas por hablante con consistencia global en conversaciones largas y superpuestas.

Jing Peng, Ziyi Chen, Haoyu Li, Yucheng Wang, Duo Ma, Mengtian Li, Yunfan Du, Dezhu Xu, Kai Yu, Shuai Wang2026-03-12⚡ eess

Modeling Stage-wise Evolution of User Interests for News Recommendation

Este trabajo propone un marco unificado para la recomendación de noticias que modela la evolución de los intereses de los usuarios en etapas, combinando la captura de preferencias a largo plazo mediante un grafo global con el análisis de dinámicas a corto plazo a través de subgrafos temporales escalonados, superando así a los enfoques existentes en la gestión de la sensibilidad temporal de las noticias.

Zhiyong Cheng, Yike Jin, Zhijie Zhang, Huilin Chen, Zhangling Duan, Meng Wang2026-03-12🤖 cs.AI

Aligning Large Language Models with Searcher Preferences

Este trabajo presenta SearchLLM, el primer modelo de lenguaje grande diseñado para la búsqueda generativa abierta, el cual utiliza un sistema de recompensas jerárquico y la optimización GRPO para alinear las respuestas con las preferencias de los usuarios y garantizar seguridad, logrando mejoras significativas en la calidad de generación y el compromiso del usuario en la plataforma RedNote.

Wei Wu, Peilun Zhou, Liyi Chen, Qimeng Wang, Chengqiang Lu, Yan Gao, Yi Wu, Yao Hu, Hui Xiong2026-03-12💬 cs.CL

Learning to Negotiate: Multi-Agent Deliberation for Collective Value Alignment in LLMs

Este trabajo propone un marco de alineación basado en la negociación multiagente que utiliza el aprendizaje por refuerzo a partir de la retroalimentación de IA (RLAIF) para entrenar a modelos de lenguaje grandes en la resolución de conflictos de valores mediante deliberación estructurada, logrando así una alineación con la Agencia Colectiva y una mejora en la capacidad de resolución de conflictos sin degradar las habilidades lingüísticas generales.

Panatchakorn Anantaprayoon, Nataliia Babina, Nima Asgharbeygi, Jad Tarifi2026-03-12💬 cs.CL

Naïve Exposure of Generative AI Capabilities Undermines Deepfake Detection

Este trabajo demuestra que la exposición ingenua de las capacidades de refinamiento y razonamiento de los sistemas de IA generativa comercial, accesibles mediante instrucciones benignas, socava fundamentalmente a los detectores de deepfakes actuales al permitir la creación de imágenes que evaden la detección, preservan la identidad y mejoran la calidad perceptual, revelando una desconexión crítica entre los modelos de amenazas existentes y las capacidades reales de estas herramientas.

Sunpill Kim, Chanwoo Hwang, Minsu Kim, Jae Hong Seo2026-03-12🤖 cs.AI

Resource-constrained Amazons chess decision framework integrating large language models and graph attention

Este artículo presenta un marco híbrido ligero para el juego de las Amazonas que integra modelos de lenguaje grandes con aprendizaje basado en grafos para superar las limitaciones de recursos, logrando un rendimiento superior al de su modelo base mediante el uso de datos sintéticos y mecanismos de filtrado estructural.

Tianhao Qian, Zhuoxuan Li, Jinde Cao, Xinli Shi, Hanjie Liu, Leszek Rutkowski2026-03-12🤖 cs.AI

IH-Challenge: A Training Dataset to Improve Instruction Hierarchy on Frontier LLMs

El artículo presenta IH-Challenge, un conjunto de datos de aprendizaje por refuerzo diseñado para mejorar la jerarquía de instrucciones en modelos de lenguaje avanzados, logrando una mayor robustez contra ataques de inyección y jailbreaks sin comprometer su utilidad general.

Chuan Guo (Michael Pokorny), Juan Felipe Ceron Uribe (Michael Pokorny), Sicheng Zhu (Michael Pokorny), Christopher A. Choquette-Choo (Michael Pokorny), Steph Lin (Michael Pokorny), Nikhil Kandpal (Michael Pokorny), Milad Nasr (Michael Pokorny), Rai (Michael Pokorny), Sam Toyer, Miles Wang, Yaodong Yu, Alex Beutel, Kai Xiao2026-03-12🤖 cs.AI

UAV-MARL: Multi-Agent Reinforcement Learning for Time-Critical and Dynamic Medical Supply Delivery

Este artículo presenta un marco de aprendizaje por refuerzo multiagente basado en Proximal Policy Optimization (PPO) para coordinar flotas de drones en la entrega de suministros médicos, demostrando mediante datos geográficos reales que la versión clásica de PPO supera a las estrategias asíncronas y secuenciales en la gestión de logística sanitaria dinámica y bajo incertidumbre.

Islam Guven, Mehmet Parlak2026-03-12🤖 cs.LG

Prompting with the human-touch: evaluating model-sensitivity of foundation models for musculoskeletal CT segmentation

Este estudio evalúa la sensibilidad de once modelos fundacionales para la segmentación de imágenes médicas de musculo-esqueléticas, revelando que el rendimiento varía significativamente según la estrategia de prompt y la anatomía, y que el uso de prompts humanos reduce el rendimiento en comparación con los prompts ideales, lo que complica la selección del modelo óptimo para entornos clínicos reales.

Caroline Magg, Maaike A. ter Wee, Johannes G. G. Dobbe, Geert J. Streekstra, Leendert Blankevoort, Clara I. Sánchez, Hoel Kervadec2026-03-12🤖 cs.AI

Towards Cognitive Defect Analysis in Active Infrared Thermography with Vision-Text Cues

Este trabajo presenta un marco novedoso de análisis cognitivo de defectos en polímeros reforzados con fibra de carbono (CFRP) mediante termografía infrarroja activa y modelos de visión-linguaje, que elimina la necesidad de conjuntos de datos de entrenamiento específicos mediante el uso de adaptadores ligeros para lograr una detección y localización de defectos subsuperficiales en configuración *zero-shot*.

Mohammed Salah, Eman Ouda, Giuseppe Dell'Avvocato, Fabrizio Sarasini, Ester D'Accardi, Jorge Dias, Davor Svetinovic, Stefano Sfarra, Yusra Abdulrahman2026-03-12⚡ eess

Adaptive RAN Slicing Control via Reward-Free Self-Finetuning Agents

Este artículo propone un marco de auto-afinamiento sin recompensas que utiliza un mecanismo de reflexión bi-perspectiva para permitir que agentes de IA aprendan continuamente y distilen experiencias en sus parámetros, demostrando un rendimiento superior a los métodos tradicionales en la optimización dinámica del rebanado de redes de acceso radio (RAN).

Yuanhao Li, Haozhe Wang, Geyong Min, Nektarios Georgalas, Wang Miao2026-03-12🤖 cs.AI

CUAAudit: Meta-Evaluation of Vision-Language Models as Auditors of Autonomous Computer-Use Agents

Este estudio presenta CUAAudit, una meta-evaluación a gran escala que demuestra que, aunque los Modelos de Lenguaje y Visión (VLM) pueden actuar como auditores autónomos efectivos para agentes de uso informático, su fiabilidad disminuye en entornos complejos y heterogéneos, revelando limitaciones fundamentales en su precisión, calibración y acuerdo inter-modelo.

Marta Sumyk, Oleksandr Kosovan2026-03-12🤖 cs.AI

Does LLM Alignment Really Need Diversity? An Empirical Study of Adapting RLVR Methods for Moral Reasoning

Este estudio empírico demuestra que, contrariamente a la hipótesis de que el alineamiento moral requiere algoritmos que fomenten la diversidad, los métodos de maximización de recompensas (RLVR) son igual o más efectivos que los enfoques de coincidencia de distribución, debido a que las respuestas de alto valor en el razonamiento moral presentan una distribución más concentrada que en el razonamiento matemático.

Zhaowei Zhang, Xiaohan Liu, Xuekai Zhu, Junchao Huang, Ceyao Zhang, Zhiyuan Feng, Yaodong Yang, Xiaoyuan Yi, Xing Xie2026-03-12🤖 cs.AI