FindAnything: Open-Vocabulary and Object-Centric Mapping for Robot Exploration in Any Environment

El artículo presenta FindAnything, un marco de mapeo en mundo abierto que integra información visión-idioma en submapas volumétricos centrados en objetos mediante la agregación eficiente de características, logrando una comprensión semántica precisa y escalable en tiempo real incluso en dispositivos con recursos limitados como los MAVs.

Sebastián Barbas Laina, Simon Boche, Sotiris Papatheodorou, Simon Schaefer, Jaehyung Jung, Helen Oleynikova, Stefan Leutenegger2026-03-09🤖 cs.AI

From Tokenizer Bias to Backbone Capability: A Controlled Study of LLMs for Time Series Forecasting

Este estudio controlado revela que, aunque los modelos de lenguaje grandes (LLM) muestran cierto potencial para la predicción de series temporales, su rendimiento sigue siendo limitado y no supera consistentemente al de modelos específicamente entrenados con grandes volúmenes de datos de series temporales, debido a que los enfoques previos enmascaraban sus capacidades reales mediante pares de tokenizadores y detokenizadores sobreajustados a distribuciones de datos pequeñas.

Xinyu Zhang, Shanshan Feng, Xutao Li, Kenghong Lin, Fan Li, Pengfei Jia2026-03-09🤖 cs.AI

Position: Stop Anthropomorphizing Intermediate Tokens as Reasoning/Thinking Traces!

Este artículo de posición argumenta que antropomorfizar los tokens intermedios generados por los modelos de lenguaje como "razonamiento" o "pensamiento" es una metáfora peligrosa que confunde la naturaleza de estos sistemas, conduce a investigaciones cuestionables e impide su uso efectivo, por lo que insta a la comunidad a evitar dicha personificación.

Subbarao Kambhampati, Karthik Valmeekam, Siddhant Bhambri, Vardhan Palod, Lucas Saldyt, Kaya Stechly, Soumya Rani Samineni, Durgesh Kalwar, Upasana Biswas2026-03-09🤖 cs.AI

The Malicious Technical Ecosystem: Exposing Limitations in Technical Governance of AI-Generated Non-Consensual Intimate Images of Adults

Este artículo adopta un enfoque centrado en las supervivientes para exponer cómo un "ecosistema técnico malicioso" de herramientas de código abierto y software de desnudamiento, junto con las limitaciones de los marcos de gobernanza actuales como el informe NIST AI 100-4, impiden eficazmente regular la creación de imágenes íntimas generadas por IA sin consentimiento.

Michelle L. Ding, Harini Suresh2026-03-09🤖 cs.AI

HCT-QA: A Benchmark for Question Answering on Human-Centric Tables

Este artículo presenta HCT-QA, un nuevo benchmark exhaustivo para la respuesta a preguntas sobre tablas centradas en humanos (HCTs) que incluye miles de tablas reales y sintéticas con sus correspondientes pares de preguntas y respuestas, evaluando el rendimiento de diversos modelos de lenguaje y visión y demostrando que el ajuste fino mejora significativamente la precisión.

Mohammad S. Ahmad, Zan A. Naeem, Michaël Aupetit, Ahmed Elmagarmid, Mohamed Eltabakh, Xiaosong Ma, Mourad Ouzzani, Chaoyi Ruan, Hani Al-Sayeh2026-03-09🤖 cs.AI

FourierSpecNet: Neural Collision Operator Approximation Inspired by the Fourier Spectral Method for Solving the Boltzmann Equation

El artículo presenta FourierSpecNet, un marco híbrido que integra el método espectral de Fourier con aprendizaje profundo para aproximar de manera eficiente y precisa el operador de colisión de la ecuación de Boltzmann, logrando convergencia consistente, resolución invariantes y una reducción significativa del costo computacional en comparación con los solvers espectrales tradicionales.

Jae Yong Lee, Gwang Jae Jung, Byung Chan Lim, Hyung Ju Hwang2026-03-09🤖 cs.AI

RM-R1: Reward Modeling as Reasoning

El artículo presenta RM-R1, una nueva clase de modelos de recompensa generativos que integran el razonamiento mediante un mecanismo de "cadenas de criterios" (CoR) y un entrenamiento en dos etapas, logrando un rendimiento superior y mayor interpretabilidad en comparación con modelos más grandes y propietarios.

Xiusi Chen, Gaotang Li, Ziqi Wang, Bowen Jin, Cheng Qian, Yu Wang, Hongru Wang, Yu Zhang, Denghui Zhang, Tong Zhang, Hanghang Tong, Heng Ji2026-03-09🤖 cs.AI

Software Development Life Cycle Perspective: A Survey of Benchmarks for Code Large Language Models and Agents

Este artículo presenta un marco de análisis en capas que revisa sistemáticamente 178 benchmarks de modelos y agentes de lenguaje para código, revelando un desequilibrio crítico donde la mayoría se centra en la fase de implementación del ciclo de vida del desarrollo de software, mientras que las fases de requisitos y diseño están subrepresentadas y existen riesgos significativos de contaminación de datos.

Kaixin Wang, Tianlin Li, Xiaoyu Zhang, Chong Wang, Weisong Sun, Yang Liu, Aishan Liu, Xianglong Liu, Chao Shen, Bin Shi2026-03-09🤖 cs.AI

AdAEM: An Adaptively and Automated Extensible Measurement of LLMs' Value Difference

El artículo presenta AdAEM, un algoritmo de evaluación autoextensible que genera y adapta dinámicamente preguntas de prueba para medir con mayor precisión y diferenciación las diferencias de valores entre los grandes modelos de lenguaje, superando las limitaciones de las métricas estáticas actuales.

Jing Yao, Shitong Duan, Xiaoyuan Yi, Dongkuan Xu, Peng Zhang, Tun Lu, Ning Gu, Zhicheng Dou, Xing Xie2026-03-09🤖 cs.AI

ESGenius: Benchmarking LLMs on Environmental, Social, and Governance (ESG) and Sustainability Knowledge

El artículo presenta ESGenius, el primer benchmark integral que evalúa y mejora el conocimiento de los modelos de lenguaje grande sobre sostenibilidad y ESG mediante un corpus de fuentes autorizadas y un conjunto de preguntas validadas, demostrando que la recuperación aumentada (RAG) es esencial para superar las limitaciones de conocimiento en este dominio especializado.

Chaoyue He, Xin Zhou, Yi Wu + 9 more2026-03-09💬 cs.CL

KramaBench: A Benchmark for AI Systems on Data-to-Insight Pipelines over Data Lakes

El artículo presenta KramaBench, un nuevo benchmark que evalúa la capacidad de los sistemas de IA para orquestar pipelines completos de "datos a conocimientos" sobre lagos de datos reales, revelando que, aunque los sistemas actuales pueden generar borradores plausibles, su precisión para ejecutar pipelines integrales y funcionales sigue siendo limitada.

Eugenie Lai, Gerardo Vitagliano, Ziyu Zhang, Om Chabra, Sivaprasad Sudhir, Anna Zeng, Anton A. Zabreyko, Chenning Li, Ferdi Kossmann, Jialin Ding, Jun Chen, Markos Markakis, Matthew Russo, Weiyang Wang, Ziniu Wu, Michael J. Cafarella, Lei Cao, Samuel Madden, Tim Kraska2026-03-09🤖 cs.AI

VisioMath: Benchmarking Figure-based Mathematical Reasoning in LMMs

El artículo presenta VisioMath, un nuevo benchmark de 1.800 problemas matemáticos de nivel K-12 que evalúa la capacidad de los Modelos Multimodales Grandes para realizar razonamiento comparativo basado en diagramas visualmente similares, revelando que su principal limitación es la desalineación entre imagen y texto y demostrando que estrategias de alineación pueden mejorar significativamente su rendimiento.

Can Li, Ying Liu, Ting Zhang, Mei Wang, Hua Huang2026-03-09🤖 cs.AI

Discerning What Matters: A Multi-Dimensional Assessment of Moral Competence in LLMs

Este artículo presenta un nuevo marco de evaluación multidimensional para la competencia moral de los modelos de lenguaje, revelando que, aunque estos superan a los humanos en escenarios éticos predefinidos, su capacidad para discernir la relevancia moral en situaciones con información ruidosa es significativamente inferior, lo que sugiere que las evaluaciones actuales sobreestiman sus habilidades de razonamiento moral.

Daniel Kilov, Caroline Hendy, Secil Yanik Guyot, Aaron J. Snoswell, Seth Lazar2026-03-09🤖 cs.AI

ContextBench: Modifying Contexts for Targeted Latent Activation

El artículo presenta ContextBench, un marco de evaluación para la modificación de contextos que busca generar entradas lingüísticamente fluidas que activen características latentes específicas en modelos de lenguaje, demostrando que variantes mejoradas de la optimización de prompts evolutiva logran el mejor equilibrio entre eficacia de activación y fluidez.

Robert Graham, Edward Stevinson, Leo Richter, Alexander Chia, Joseph Miller, Joseph Isaac Bloom2026-03-09🤖 cs.AI

Sysformer: Safeguarding Frozen Large Language Models with Adaptive System Prompts

El paper presenta Sysformer, un enfoque novedoso que utiliza un modelo transformador para adaptar dinámicamente los prompts del sistema en LLMs congelados, logrando mejorar significativamente su robustez ante ataques de jailbreaking y su cumplimiento de estándares de seguridad sin necesidad de costoso ajuste de parámetros.

Kartik Sharma, Yiqiao Jin, Vineeth Rakesh, Yingtong Dou, Menghai Pan, Mahashweta Das, Srijan Kumar2026-03-09🤖 cs.AI