Transforming Agency. On the mode of existence of Large Language Models

El artículo concluye que los Modelos de Lenguaje Grande (LLM) carecen de agencia autónoma al no cumplir con las condiciones de individualidad, normatividad y asimetría interaccional, por lo que deben caracterizarse como interlocutores o autómatas lingüísticos que, a través de una "encarnación" textual y computacional, transforman la agencia humana generando formas híbridas de agencia intencional en lugar de meras herramientas extendidas.

Xabier E. Barandiaran, Lola S. Almendros2026-03-09🤖 cs.AI

FALCON: Future-Aware Learning with Contextual Object-Centric Pretraining for UAV Action Recognition

El artículo presenta FALCON, un enfoque de preentrenamiento auto-supervisado unificado para el reconocimiento de acciones en videos de UAV que aborda el desequilibrio espacial mediante la integración de enmascaramiento consciente de objetos y reconstrucción futura dual, logrando mejoras significativas en precisión y velocidad de inferencia en comparación con métodos supervisados.

Ruiqi Xian, Xiyang Wu, Tianrui Guan, Xijun Wang, Boqing Gong, Dinesh Manocha2026-03-09🤖 cs.AI

An Efficient Self-supervised Seismic Data Reconstruction Method Based on Self-Consistency Learning

Este trabajo propone un método de reconstrucción de datos sísmicos auto-supervisado basado en aprendizaje de auto-consistencia y una red ligera que, al aprovechar las correlaciones entre componentes sin necesidad de conjuntos de datos externos, logra una reconstrucción de alta calidad para aplicaciones de exploración sísmica compleja.

Mingwei Wang, Junheng Peng, Yingtian Liu, Yong Li2026-03-09🤖 cs.LG

Ditto: Motion-Space Diffusion for Controllable Realtime Talking Head Synthesis

El artículo presenta Ditto, un marco de síntesis de cabezas parlantes basado en difusión que logra inferencia en tiempo real y un control fino mediante la generación de representaciones en un espacio de movimiento específico, optimizando la arquitectura y la estrategia de entrenamiento para superar las limitaciones de velocidad y control de los modelos anteriores.

Tianqi Li, Ruobing Zheng, Minghui Yang + 2 more2026-03-09⚡ eess

L0-Regularized Quadratic Surface Support Vector Machines

Este artículo propone variantes dispersas de las máquinas de vectores de soporte de superficie cuadrática (QSVM) mediante una restricción de cardinalidad 0\ell_0, presentando un algoritmo de descomposición de penalización que garantiza condiciones de optimalidad, asegura la convergencia y demuestra un rendimiento competitivo y interpretable en tareas de puntuación crediticia.

Ahmad Mousavi, Ramin Zandvakili, Zheming Gao2026-03-09🤖 cs.LG

Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation

Esta encuesta ofrece una visión estructurada de cómo los modelos de lenguaje grandes y multimodales están transformando el ciclo de vida científico, abarcando desde la búsqueda de literatura y la generación de ideas hasta la creación de contenido y la evaluación ética, sirviendo como guía tanto para nuevos investigadores como para el desarrollo futuro de sistemas de "IA para la Ciencia".

Steffen Eger, Yong Cao, Jennifer D'Souza, Andreas Geiger, Christian Greisinger, Stephanie Gross, Yufang Hou, Brigitte Krenn, Anne Lauscher, Yizhi Li, Chenghua Lin, Nafise Sadat Moosavi, Wei Zhao, Tristan Miller2026-03-09🤖 cs.AI

CAPS: Context-Aware Priority Sampling for Enhanced Imitation Learning in Autonomous Driving

Este artículo presenta CAPS, un método de muestreo prioritario consciente del contexto que utiliza VQ-VAEs para reequilibrar conjuntos de datos desbalanceados en el aprendizaje por imitación, mejorando significativamente la generalización y el rendimiento de los sistemas de conducción autónoma en el simulador CARLA.

Hamidreza Mirkhani, Behzad Khamidehi, Ehsan Ahmadi, Mohammed Elmahgiubi, Weize Zhang, Fazel Arasteh, Umar Rajguru, Kasra Rezaee, Dongfeng Bai2026-03-09🤖 cs.LG

From Tokenizer Bias to Backbone Capability: A Controlled Study of LLMs for Time Series Forecasting

Este estudio controlado revela que, aunque los modelos de lenguaje grandes (LLM) muestran cierto potencial para la predicción de series temporales, su rendimiento sigue siendo limitado y no supera consistentemente al de modelos específicamente entrenados con grandes volúmenes de datos de series temporales, debido a que los enfoques previos enmascaraban sus capacidades reales mediante pares de tokenizadores y detokenizadores sobreajustados a distribuciones de datos pequeñas.

Xinyu Zhang, Shanshan Feng, Xutao Li, Kenghong Lin, Fan Li, Pengfei Jia2026-03-09🤖 cs.AI

The Malicious Technical Ecosystem: Exposing Limitations in Technical Governance of AI-Generated Non-Consensual Intimate Images of Adults

Este artículo adopta un enfoque centrado en las supervivientes para exponer cómo un "ecosistema técnico malicioso" de herramientas de código abierto y software de desnudamiento, junto con las limitaciones de los marcos de gobernanza actuales como el informe NIST AI 100-4, impiden eficazmente regular la creación de imágenes íntimas generadas por IA sin consentimiento.

Michelle L. Ding, Harini Suresh2026-03-09🤖 cs.AI

FourierSpecNet: Neural Collision Operator Approximation Inspired by the Fourier Spectral Method for Solving the Boltzmann Equation

El artículo presenta FourierSpecNet, un marco híbrido que integra el método espectral de Fourier con aprendizaje profundo para aproximar de manera eficiente y precisa el operador de colisión de la ecuación de Boltzmann, logrando convergencia consistente, resolución invariantes y una reducción significativa del costo computacional en comparación con los solvers espectrales tradicionales.

Jae Yong Lee, Gwang Jae Jung, Byung Chan Lim, Hyung Ju Hwang2026-03-09🤖 cs.AI

Scalable Multi-Task Learning for Particle Collision Event Reconstruction with Heterogeneous Graph Neural Networks

Este artículo propone una arquitectura novedosa de Red Neuronal de Grafos Heterogéneos que, mediante un aprendizaje multitarea y capas de poda integradas, mejora significativamente la reconstrucción de hadrones de belleza y la asociación de vértices en colisiones de partículas del LHC, optimizando simultáneamente la escalabilidad y el tiempo de inferencia.

William Sutcliffe, Marta Calvi, Simone Capelli + 5 more2026-03-09⚛️ hep-ex

RM-R1: Reward Modeling as Reasoning

El artículo presenta RM-R1, una nueva clase de modelos de recompensa generativos que integran el razonamiento mediante un mecanismo de "cadenas de criterios" (CoR) y un entrenamiento en dos etapas, logrando un rendimiento superior y mayor interpretabilidad en comparación con modelos más grandes y propietarios.

Xiusi Chen, Gaotang Li, Ziqi Wang, Bowen Jin, Cheng Qian, Yu Wang, Hongru Wang, Yu Zhang, Denghui Zhang, Tong Zhang, Hanghang Tong, Heng Ji2026-03-09🤖 cs.AI

ESGenius: Benchmarking LLMs on Environmental, Social, and Governance (ESG) and Sustainability Knowledge

El artículo presenta ESGenius, el primer benchmark integral que evalúa y mejora el conocimiento de los modelos de lenguaje grande sobre sostenibilidad y ESG mediante un corpus de fuentes autorizadas y un conjunto de preguntas validadas, demostrando que la recuperación aumentada (RAG) es esencial para superar las limitaciones de conocimiento en este dominio especializado.

Chaoyue He, Xin Zhou, Yi Wu + 9 more2026-03-09💬 cs.CL