FedEMA-Distill: Exponential Moving Average Guided Knowledge Distillation for Robust Federated Learning

El artículo propone FedEMA-Distill, un método de aprendizaje federado que combina un promedio móvil exponencial del modelo global con la destilación de conocimiento basada en logits para lograr un entrenamiento más robusto, eficiente en comunicación y resistente a ataques adversarios sin requerir cambios en el software de los clientes.

Hamza Reguieg, Mohamed El Kamili, Essaid Sabir2026-03-06💻 cs

Data-Driven Optimization of Multi-Generational Cellular Networks: A Performance Classification Framework for Strategic Infrastructure Management

Este artículo presenta un marco de clasificación de rendimiento basado en datos para optimizar la gestión estratégica de redes celulares multigeneracionales, identificando infraestructura subutilizada y zonas de demanda no cubierta por 4G en países como Pakistán para guiar las actualizaciones de LTE y mejorar la eficiencia operativa.

Maryam Sabahat, M. Umar Khan2026-03-06💻 cs

Agent Memory Below the Prompt: Persistent Q4 KV Cache for Multi-Agent LLM Inference on Edge Devices

Este trabajo presenta un sistema para inferencia multi-agente en dispositivos de borde que persiste la memoria de atención (KV cache) de cada agente en formato cuantizado a 4 bits en disco, permitiendo su restauración directa y eliminando la necesidad de recomputación, lo que reduce el tiempo hasta el primer token hasta en 136 veces y multiplica por cuatro la cantidad de agentes que caben en la memoria disponible.

Yakov Pyotr Shkolnikov2026-03-06💻 cs

Flowers: A Warp Drive for Neural PDE Solvers

El artículo presenta "Flowers", una arquitectura neuronal eficiente y escalable que resuelve operadores de EDPs utilizando exclusivamente deformaciones espaciales (warps) para capturar interacciones globales sin mecanismos de atención o convolución tradicionales, logrando un rendimiento superior en problemas de flujo y ondas con una fracción de los parámetros y recursos computacionales de los modelos existentes.

Till Muser, Alexandra Spitzer, Matti Lassas + 2 more2026-03-06💻 cs

CogGen: Cognitive-Load-Informed Fully Unsupervised Deep Generative Modeling for Compressively Sampled MRI Reconstruction

El artículo presenta CogGen, un modelo generativo profundo totalmente no supervisado que mejora la reconstrucción de MRI muestreado comprimido mediante un aprendizaje curricular auto-dirigido que gestiona la carga cognitiva al priorizar progresivamente los datos de baja frecuencia y alta relación señal-ruido sobre el ruido y las frecuencias altas.

Qingyong Zhu, Yumin Tan, Xiang Gu + 1 more2026-03-06💻 cs

On Emergences of Non-Classical Statistical Characteristics in Classical Neural Networks

Este artículo presenta la NCnet, una arquitectura clásica que exhibe comportamientos estadísticos no clásicos análogos a las desigualdades de Bell, demostrando que las correlaciones no locales surgen de la competencia de gradientes entre tareas compartidas y que la métrica SS puede servir como indicador de la dinámica de entrenamiento y el rendimiento de generalización.

Hanyu Zhao, Yang Wu, Yuexian Hou2026-03-06⚛️ quant-ph

Induced Numerical Instability: Hidden Costs in Multimodal Large Language Models

Este trabajo identifica y valida una nueva vulnerabilidad en los modelos de lenguaje grandes multimodales, demostrando que optimizar una función de pérdida para inducir inestabilidad numérica genera imágenes que degradan significativamente el rendimiento del modelo con perturbaciones mínimas, revelando un vector de fallo distinto a las perturbaciones adversarias tradicionales.

Wai Tuck Wong, Jun Sun, Arunesh Sinha2026-03-06💻 cs

Learning Unified Distance Metric for Heterogeneous Attribute Data Clustering

Este artículo propone un nuevo paradigma de aprendizaje llamado HARR (Reconstrucción y Representación de Atributos Heterogéneos) que transforma atributos numéricos y categóricos en un espacio homogéneo para aprender una métrica de distancia unificada, mejorando así la precisión y eficiencia del clustering en datos mixtos sin requerir parámetros ni garantías de convergencia.

Yiqun Zhang, Mingjie Zhao, Yizhou Chen + 2 more2026-03-06💻 cs