Combining X-Vectors and Bayesian Batch Active Learning: Two-Stage Active Learning Pipeline for Speech Recognition

Este artículo presenta una novedosa pipeline de aprendizaje activo en dos etapas para el reconocimiento automático del habla que combina la selección de muestras diversas mediante agrupamiento de x-vectores y la identificación de muestras informativas con un método bayesiano adaptado, logrando así un entrenamiento de modelos más eficiente con menos datos etiquetados.

Ognjen Kundacina, Vladimir Vincan, Dragisa Miskovic2026-03-09⚡ eess

Transforming Agency. On the mode of existence of Large Language Models

El artículo concluye que los Modelos de Lenguaje Grande (LLM) carecen de agencia autónoma al no cumplir con las condiciones de individualidad, normatividad y asimetría interaccional, por lo que deben caracterizarse como interlocutores o autómatas lingüísticos que, a través de una "encarnación" textual y computacional, transforman la agencia humana generando formas híbridas de agencia intencional en lugar de meras herramientas extendidas.

Xabier E. Barandiaran, Lola S. Almendros2026-03-09🤖 cs.AI

FALCON: Future-Aware Learning with Contextual Object-Centric Pretraining for UAV Action Recognition

El artículo presenta FALCON, un enfoque de preentrenamiento auto-supervisado unificado para el reconocimiento de acciones en videos de UAV que aborda el desequilibrio espacial mediante la integración de enmascaramiento consciente de objetos y reconstrucción futura dual, logrando mejoras significativas en precisión y velocidad de inferencia en comparación con métodos supervisados.

Ruiqi Xian, Xiyang Wu, Tianrui Guan, Xijun Wang, Boqing Gong, Dinesh Manocha2026-03-09🤖 cs.AI

UniHR: Hierarchical Representation Learning for Unified Knowledge Graph Link Prediction

El artículo presenta UniHR, un marco de aprendizaje de representaciones jerárquicas unificadas que integra datos hiperrelacionales, temporales y anidados en representaciones basadas en tripletes mediante módulos de representación de datos y aprendizaje estructural jerárquico, demostrando su eficacia en la predicción de enlaces a través de diversos tipos de grafos de conocimiento.

Zhiqiang Liu, Yin Hua, Mingyang Chen + 4 more2026-03-09💬 cs.CL

Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation

Esta encuesta ofrece una visión estructurada de cómo los modelos de lenguaje grandes y multimodales están transformando el ciclo de vida científico, abarcando desde la búsqueda de literatura y la generación de ideas hasta la creación de contenido y la evaluación ética, sirviendo como guía tanto para nuevos investigadores como para el desarrollo futuro de sistemas de "IA para la Ciencia".

Steffen Eger, Yong Cao, Jennifer D'Souza, Andreas Geiger, Christian Greisinger, Stephanie Gross, Yufang Hou, Brigitte Krenn, Anne Lauscher, Yizhi Li, Chenghua Lin, Nafise Sadat Moosavi, Wei Zhao, Tristan Miller2026-03-09🤖 cs.AI

Generative Predictive Control: Flow Matching Policies for Dynamic and Difficult-to-Demonstrate Tasks

Este artículo introduce el Control Predictivo Generativo, un marco de aprendizaje supervisado que combina la modelación generativa con el control predictivo para entrenar políticas de flujo de alta frecuencia en tareas dinámicas difíciles de demostrar, superando así la dependencia de demostraciones expertas y las limitaciones de velocidad de los métodos existentes.

Vince Kurtz, Joel W. Burdick2026-03-09🤖 cs.AI

FindAnything: Open-Vocabulary and Object-Centric Mapping for Robot Exploration in Any Environment

El artículo presenta FindAnything, un marco de mapeo en mundo abierto que integra información visión-idioma en submapas volumétricos centrados en objetos mediante la agregación eficiente de características, logrando una comprensión semántica precisa y escalable en tiempo real incluso en dispositivos con recursos limitados como los MAVs.

Sebastián Barbas Laina, Simon Boche, Sotiris Papatheodorou, Simon Schaefer, Jaehyung Jung, Helen Oleynikova, Stefan Leutenegger2026-03-09🤖 cs.AI

From Tokenizer Bias to Backbone Capability: A Controlled Study of LLMs for Time Series Forecasting

Este estudio controlado revela que, aunque los modelos de lenguaje grandes (LLM) muestran cierto potencial para la predicción de series temporales, su rendimiento sigue siendo limitado y no supera consistentemente al de modelos específicamente entrenados con grandes volúmenes de datos de series temporales, debido a que los enfoques previos enmascaraban sus capacidades reales mediante pares de tokenizadores y detokenizadores sobreajustados a distribuciones de datos pequeñas.

Xinyu Zhang, Shanshan Feng, Xutao Li, Kenghong Lin, Fan Li, Pengfei Jia2026-03-09🤖 cs.AI

Position: Stop Anthropomorphizing Intermediate Tokens as Reasoning/Thinking Traces!

Este artículo de posición argumenta que antropomorfizar los tokens intermedios generados por los modelos de lenguaje como "razonamiento" o "pensamiento" es una metáfora peligrosa que confunde la naturaleza de estos sistemas, conduce a investigaciones cuestionables e impide su uso efectivo, por lo que insta a la comunidad a evitar dicha personificación.

Subbarao Kambhampati, Karthik Valmeekam, Siddhant Bhambri, Vardhan Palod, Lucas Saldyt, Kaya Stechly, Soumya Rani Samineni, Durgesh Kalwar, Upasana Biswas2026-03-09🤖 cs.AI

The Malicious Technical Ecosystem: Exposing Limitations in Technical Governance of AI-Generated Non-Consensual Intimate Images of Adults

Este artículo adopta un enfoque centrado en las supervivientes para exponer cómo un "ecosistema técnico malicioso" de herramientas de código abierto y software de desnudamiento, junto con las limitaciones de los marcos de gobernanza actuales como el informe NIST AI 100-4, impiden eficazmente regular la creación de imágenes íntimas generadas por IA sin consentimiento.

Michelle L. Ding, Harini Suresh2026-03-09🤖 cs.AI

HCT-QA: A Benchmark for Question Answering on Human-Centric Tables

Este artículo presenta HCT-QA, un nuevo benchmark exhaustivo para la respuesta a preguntas sobre tablas centradas en humanos (HCTs) que incluye miles de tablas reales y sintéticas con sus correspondientes pares de preguntas y respuestas, evaluando el rendimiento de diversos modelos de lenguaje y visión y demostrando que el ajuste fino mejora significativamente la precisión.

Mohammad S. Ahmad, Zan A. Naeem, Michaël Aupetit, Ahmed Elmagarmid, Mohamed Eltabakh, Xiaosong Ma, Mourad Ouzzani, Chaoyi Ruan, Hani Al-Sayeh2026-03-09🤖 cs.AI