Ditto: Motion-Space Diffusion for Controllable Realtime Talking Head Synthesis

El artículo presenta Ditto, un marco de síntesis de cabezas parlantes basado en difusión que logra inferencia en tiempo real y un control fino mediante la generación de representaciones en un espacio de movimiento específico, optimizando la arquitectura y la estrategia de entrenamiento para superar las limitaciones de velocidad y control de los modelos anteriores.

Tianqi Li, Ruobing Zheng, Minghui Yang + 2 more2026-03-09⚡ eess

L0-Regularized Quadratic Surface Support Vector Machines

Este artículo propone variantes dispersas de las máquinas de vectores de soporte de superficie cuadrática (QSVM) mediante una restricción de cardinalidad 0\ell_0, presentando un algoritmo de descomposición de penalización que garantiza condiciones de optimalidad, asegura la convergencia y demuestra un rendimiento competitivo y interpretable en tareas de puntuación crediticia.

Ahmad Mousavi, Ramin Zandvakili, Zheming Gao2026-03-09🤖 cs.LG

Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation

Esta encuesta ofrece una visión estructurada de cómo los modelos de lenguaje grandes y multimodales están transformando el ciclo de vida científico, abarcando desde la búsqueda de literatura y la generación de ideas hasta la creación de contenido y la evaluación ética, sirviendo como guía tanto para nuevos investigadores como para el desarrollo futuro de sistemas de "IA para la Ciencia".

Steffen Eger, Yong Cao, Jennifer D'Souza, Andreas Geiger, Christian Greisinger, Stephanie Gross, Yufang Hou, Brigitte Krenn, Anne Lauscher, Yizhi Li, Chenghua Lin, Nafise Sadat Moosavi, Wei Zhao, Tristan Miller2026-03-09🤖 cs.AI

CAPS: Context-Aware Priority Sampling for Enhanced Imitation Learning in Autonomous Driving

Este artículo presenta CAPS, un método de muestreo prioritario consciente del contexto que utiliza VQ-VAEs para reequilibrar conjuntos de datos desbalanceados en el aprendizaje por imitación, mejorando significativamente la generalización y el rendimiento de los sistemas de conducción autónoma en el simulador CARLA.

Hamidreza Mirkhani, Behzad Khamidehi, Ehsan Ahmadi, Mohammed Elmahgiubi, Weize Zhang, Fazel Arasteh, Umar Rajguru, Kasra Rezaee, Dongfeng Bai2026-03-09🤖 cs.LG

From Tokenizer Bias to Backbone Capability: A Controlled Study of LLMs for Time Series Forecasting

Este estudio controlado revela que, aunque los modelos de lenguaje grandes (LLM) muestran cierto potencial para la predicción de series temporales, su rendimiento sigue siendo limitado y no supera consistentemente al de modelos específicamente entrenados con grandes volúmenes de datos de series temporales, debido a que los enfoques previos enmascaraban sus capacidades reales mediante pares de tokenizadores y detokenizadores sobreajustados a distribuciones de datos pequeñas.

Xinyu Zhang, Shanshan Feng, Xutao Li, Kenghong Lin, Fan Li, Pengfei Jia2026-03-09🤖 cs.AI

The Malicious Technical Ecosystem: Exposing Limitations in Technical Governance of AI-Generated Non-Consensual Intimate Images of Adults

Este artículo adopta un enfoque centrado en las supervivientes para exponer cómo un "ecosistema técnico malicioso" de herramientas de código abierto y software de desnudamiento, junto con las limitaciones de los marcos de gobernanza actuales como el informe NIST AI 100-4, impiden eficazmente regular la creación de imágenes íntimas generadas por IA sin consentimiento.

Michelle L. Ding, Harini Suresh2026-03-09🤖 cs.AI

FourierSpecNet: Neural Collision Operator Approximation Inspired by the Fourier Spectral Method for Solving the Boltzmann Equation

El artículo presenta FourierSpecNet, un marco híbrido que integra el método espectral de Fourier con aprendizaje profundo para aproximar de manera eficiente y precisa el operador de colisión de la ecuación de Boltzmann, logrando convergencia consistente, resolución invariantes y una reducción significativa del costo computacional en comparación con los solvers espectrales tradicionales.

Jae Yong Lee, Gwang Jae Jung, Byung Chan Lim, Hyung Ju Hwang2026-03-09🤖 cs.AI

Scalable Multi-Task Learning for Particle Collision Event Reconstruction with Heterogeneous Graph Neural Networks

Este artículo propone una arquitectura novedosa de Red Neuronal de Grafos Heterogéneos que, mediante un aprendizaje multitarea y capas de poda integradas, mejora significativamente la reconstrucción de hadrones de belleza y la asociación de vértices en colisiones de partículas del LHC, optimizando simultáneamente la escalabilidad y el tiempo de inferencia.

William Sutcliffe, Marta Calvi, Simone Capelli + 5 more2026-03-09⚛️ hep-ex

RM-R1: Reward Modeling as Reasoning

El artículo presenta RM-R1, una nueva clase de modelos de recompensa generativos que integran el razonamiento mediante un mecanismo de "cadenas de criterios" (CoR) y un entrenamiento en dos etapas, logrando un rendimiento superior y mayor interpretabilidad en comparación con modelos más grandes y propietarios.

Xiusi Chen, Gaotang Li, Ziqi Wang, Bowen Jin, Cheng Qian, Yu Wang, Hongru Wang, Yu Zhang, Denghui Zhang, Tong Zhang, Hanghang Tong, Heng Ji2026-03-09🤖 cs.AI

ESGenius: Benchmarking LLMs on Environmental, Social, and Governance (ESG) and Sustainability Knowledge

El artículo presenta ESGenius, el primer benchmark integral que evalúa y mejora el conocimiento de los modelos de lenguaje grande sobre sostenibilidad y ESG mediante un corpus de fuentes autorizadas y un conjunto de preguntas validadas, demostrando que la recuperación aumentada (RAG) es esencial para superar las limitaciones de conocimiento en este dominio especializado.

Chaoyue He, Xin Zhou, Yi Wu + 9 more2026-03-09💬 cs.CL

ContextBench: Modifying Contexts for Targeted Latent Activation

El artículo presenta ContextBench, un marco de evaluación para la modificación de contextos que busca generar entradas lingüísticamente fluidas que activen características latentes específicas en modelos de lenguaje, demostrando que variantes mejoradas de la optimización de prompts evolutiva logran el mejor equilibrio entre eficacia de activación y fluidez.

Robert Graham, Edward Stevinson, Leo Richter, Alexander Chia, Joseph Miller, Joseph Isaac Bloom2026-03-09🤖 cs.AI

Sysformer: Safeguarding Frozen Large Language Models with Adaptive System Prompts

El paper presenta Sysformer, un enfoque novedoso que utiliza un modelo transformador para adaptar dinámicamente los prompts del sistema en LLMs congelados, logrando mejorar significativamente su robustez ante ataques de jailbreaking y su cumplimiento de estándares de seguridad sin necesidad de costoso ajuste de parámetros.

Kartik Sharma, Yiqiao Jin, Vineeth Rakesh, Yingtong Dou, Menghai Pan, Mahashweta Das, Srijan Kumar2026-03-09🤖 cs.AI

Quantifying Cross-Attention Interaction in Transformers for Interpreting TCR-pMHC Binding

Este artículo presenta QCAI, un nuevo método post-hoc para interpretar los mecanismos de atención cruzada en transformadores de codificador-descodificador aplicados a la unión TCR-pMHC, el cual demuestra un rendimiento superior en precisión predictiva e interpretabilidad al ser evaluado contra el nuevo benchmark TCR-XAI basado en estructuras experimentales.

Jiarui Li, Zixiang Yin, Haley Smith, Zhengming Ding, Samuel J. Landry, Ramgopal R. Mettu2026-03-09🤖 cs.LG