HTMuon: Improving Muon via Heavy-Tailed Spectral Correction

El artículo presenta HTMuon, un optimizador que mejora el entrenamiento de modelos de lenguaje grandes al corregir la supresión de espectros de pesos de cola pesada inherente a Muon mediante una corrección espectral basada en la teoría de auto-regularización de colas pesadas, logrando así un mejor rendimiento en preentrenamiento y clasificación de imágenes.

Tianyu Pang, Yujie Fang, Zihang Liu, Shenyang Deng, Lei Hsiung, Shuhua Yu, Yaoqing Yang2026-03-12🤖 cs.LG

ADVERSA: Measuring Multi-Turn Guardrail Degradation and Judge Reliability in Large Language Models

El artículo presenta ADVERSA, un marco de red-teaming automatizado que evalúa la degradación progresiva de las defensas de seguridad en modelos de lenguaje grandes mediante interacciones multi-turno, revelando que los jailbreaks exitosos tienden a ocurrir en las primeras rondas y destacando la importancia de medir la fiabilidad de los jueces y los sesgos de los atacantes.

Harry Owiredu-Ashley2026-03-12🤖 cs.AI

Why LLMs Fail: A Failure Analysis and Partial Success Measurement for Automated Security Patch Generation

Este estudio analiza el rendimiento de los modelos de lenguaje grandes (LLM) en la generación de parches de seguridad para vulnerabilidades Java, revelando que, aunque preservan la funcionalidad, sufre un alto índice de fracaso debido a malentendidos semánticos que comprometen la seguridad, lo que subraya la necesidad de validación rigurosa antes de su despliegue.

Amir Al-Maamari2026-03-12🤖 cs.AI

KernelSkill: A Multi-Agent Framework for GPU Kernel Optimization

El artículo presenta KernelSkill, un marco de trabajo multiagente que mejora la optimización de kernels de GPU mediante el uso de habilidades de expertos guiadas por conocimiento y una arquitectura de memoria dual, logrando aceleraciones significativas y una tasa de éxito del 100% en comparación con métodos anteriores basados en LLM.

Qitong Sun, Jun Han, Tianlin Li, Zhe Tang, Sheng Chen, Fei Yang, Aishan Liu, Xianglong Liu, Yang Liu2026-03-12🤖 cs.LG

ES-dLLM: Efficient Inference for Diffusion Large Language Models by Early-Skipping

El artículo presenta ES-dLLM, un marco de inferencia sin entrenamiento que acelera los modelos de difusión de lenguaje grande (dLLM) mediante el salto temprano de tokens en capas iniciales basado en la variación de representaciones intermedias y puntuaciones de confianza, logrando aceleraciones de hasta 16,8 veces sin comprometer la calidad de generación.

Zijian Zhu, Fei Ren, Zhanhong Tan, Kaisheng Ma2026-03-12🤖 cs.LG

Execution Is the New Attack Surface: Survivability-Aware Agentic Crypto Trading with OpenClaw-Style Local Executors

El artículo propone un estándar de ejecución consciente de la supervivencia (SAE) para sistemas de trading criptográfico con agentes tipo OpenClaw, que mitiga los riesgos de ejecución no autorizada mediante invariantes de última milla y métricas de brecha de delegación, logrando reducciones drásticas en la pérdida máxima y el riesgo de cola en pruebas con datos reales de Binance.

Ailiya Borjigin, Igor Stadnyk, Ben Bilski, Serhii Hovorov, Sofiia Pidturkina2026-03-12🤖 cs.AI

Equivariant Asynchronous Diffusion: An Adaptive Denoising Schedule for Accelerated Molecular Conformation Generation

El artículo presenta Equivariant Asynchronous Diffusion (EAD), un modelo de difusión novedoso que combina horarios de desruido asíncronos y sincrónicos mediante un mecanismo de programación dinámica para superar las limitaciones de los métodos existentes y lograr un rendimiento superior en la generación de conformaciones moleculares 3D.

Junyi An, Chao Qu, Yun-Fei Shi, Zhijian Zhou, Fenglei Cao, Yuan Qi2026-03-12🧬 q-bio

Code-Space Response Oracles: Generating Interpretable Multi-Agent Policies with Large Language Models

El artículo presenta CSRO, un marco innovador que sustituye los oráculos de aprendizaje por refuerzo tradicionales por modelos de lenguaje grandes para generar políticas multiagente interpretables y codificadas en código humano legible, logrando un rendimiento competitivo mientras facilita la comprensión y depuración de las estrategias.

Daniel Hennes, Zun Li, John Schultz, Marc Lanctot2026-03-12🤖 cs.AI

Hardware Efficient Approximate Convolution with Tunable Error Tolerance for CNNs

El artículo propone un paradigma de "dispersión suave" basado en un proxy de bits significativos más altos integrado en una instrucción RISC-V personalizada que, al omitir multiplicaciones insignificantes, reduce drásticamente las operaciones MAC y el consumo de energía en redes neuronales convolucionales sin pérdida de precisión, superando significativamente a los métodos tradicionales de dispersión rígida.

Vishal Shashidhar, Anupam Kumari, Roy P Paily2026-03-12🤖 cs.LG

CLIPO: Contrastive Learning in Policy Optimization Generalizes RLVR

El artículo presenta CLIPO, un enfoque que integra aprendizaje contrastivo en la optimización de políticas para generalizar el Aprendizaje por Refuerzo con Recompensas Verificables (RLVR), mejorando así la robustez y la generalización de los modelos de lenguaje al corregir inconsistencias en los pasos intermedios del razonamiento que el RLVR tradicional ignora.

Sijia Cui, Pengyu Cheng, Jiajun Song, Yongbo Gai, Guojun Zhang, Zhechao Yu, Jianhe Lin, Xiaoxi Jiang, Guanjun Jiang2026-03-12🤖 cs.LG

Lost in the Middle at Birth: An Exact Theory of Transformer Position Bias

Este artículo demuestra que el fenómeno "Lost in the Middle", caracterizado por un rendimiento en forma de U en los modelos de lenguaje, es una propiedad geométrica inherente a la arquitectura de los transformadores causales que ya está presente en la inicialización antes de cualquier entrenamiento o codificación posicional, debido a la interacción entre el enmascaramiento causal y las conexiones residuales.

Borun D Chowdhury2026-03-12🤖 cs.LG

AR-VLA: True Autoregressive Action Expert for Vision-Language-Action Models

El artículo presenta AR-VLA, un experto de acción autoregresivo independiente que mantiene una memoria a largo plazo para generar trayectorias de acciones continuas y coherentes, superando las limitaciones de los modelos VLA reactivos actuales al abordar la desincronización entre el razonamiento lento y el control rápido mediante un mecanismo de reanclaje.

Yutong Hu, Jan-Nico Zaech, Nikolay Nikolov, Yuanqi Yao, Sombit Dey, Giuliano Albanese, Renaud Detry, Luc Van Gool, Danda Paudel2026-03-12🤖 cs.AI

The Generation-Recognition Asymmetry: Six Dimensions of a Fundamental Divide in Formal Language Theory

Este artículo presenta una nueva visión unificada de la asimetría entre generación y reconocimiento en la teoría de lenguajes formales, identificando seis dimensiones divergentes (incluyendo dos nuevas: direccionalidad y temporalidad) para desmitificar la noción de que la generación es siempre fácil y el análisis siempre difícil, y conectando estas diferencias con el marco de la sorpresa en el procesamiento del lenguaje natural y las arquitecturas de los modelos de lenguaje grandes.

Romain Peyrichou2026-03-12💬 cs.CL