Just-In-Time Objectives: A General Approach for Specialized AI Interactions

Este artículo presenta un enfoque de "objetivos just-in-time" que infiere y optimiza en tiempo real las metas específicas del usuario para transformar a los modelos de lenguaje en herramientas especializadas de alta calidad, superando significativamente a los LLMs estándar en tareas personalizadas.

Michelle S. Lam, Omar Shaikh, Hallie Xu, Alice Guo, Diyi Yang, Jeffrey Heer, James A. Landay, Michael S. Bernstein2026-03-09🤖 cs.AI

Think with 3D: Geometric Imagination Grounded Spatial Reasoning from Limited Views

El artículo presenta 3DThinker, un marco innovador que permite a los modelos de visión y lenguaje realizar un razonamiento espacial 3D basado en la imaginación geométrica a partir de vistas limitadas, sin depender de datos 3D etiquetados ni entradas previas en tres dimensiones.

Zhangquan Chen, Manyuan Zhang, Xinlei Yu, Xufang Luo, Mingze Sun, Zihao Pan, Xiang An, Yan Feng, Peng Pei, Xunliang Cai, Ruqi Huang2026-03-09🤖 cs.AI

Shoot First, Ask Questions Later? Building Rational Agents that Explore and Act Like People

El artículo presenta un marco de evaluación y mejora para agentes de IA que buscan información estratégicamente, demostrando que mediante técnicas de inferencia inspiradas en el diseño experimental bayesiano, modelos de lenguaje más pequeños pueden superar tanto a humanos como a modelos de vanguardia en tareas de toma de decisiones bajo incertidumbre como "Barcos de Batalla" y "Adivina Quién".

Gabriel Grand, Valerio Pepe, Jacob Andreas, Joshua B. Tenenbaum2026-03-09🤖 cs.AI

REx86: A Local Large Language Model for Assisting in x86 Assembly Reverse Engineering

El artículo presenta REx86, un modelo de lenguaje local de código abierto basado en Qwen2.5-Coder-7B y afinado con un conjunto de datos específico, que mejora significativamente la comprensión y el análisis de ensamblador x86 para ingeniería inversa en entornos seguros, superando a otros modelos locales y reduciendo errores de interpretación.

Darrin Lea, James Ghawaly, Golden Richard + 2 more2026-03-09🤖 cs.AI

The Persistence of Cultural Memory: Investigating Multimodal Iconicity in Diffusion Models

Este artículo propone un marco de evaluación basado en la métrica de Transformación de Referencia Cultural (CRT) para analizar cómo los modelos de difusión manejan la iconicidad multimodal, distinguiendo entre el reconocimiento de referencias culturales compartidas y su realización visual, y revelando que su comportamiento depende de factores como la frecuencia de los datos, la popularidad de la referencia y la sensibilidad lingüística, más allá de la simple reproducción de imágenes.

Maria-Teresa De Rosa Palmini, Eva Cetinic2026-03-09🤖 cs.AI

XR-DT: Extended Reality-Enhanced Digital Twin for Safe Motion Planning via Human-Aware Model Predictive Path Integral Control

Este artículo presenta XR-DT, un marco de gemelo digital potenciado por realidad extendida que integra el modelo de control HA-MPPI y la predicción de trayectorias humanas ATLAS para lograr una planificación de movimiento segura, eficiente e interpretable en entornos compartidos entre humanos y robots.

Tianyi Wang, Jiseop Byeon, Ahmad Yehia, Yiming Xu, Jihyung Park, Tianyi Zeng, Sikai Chen, Ziran Wang, Junfeng Jiao, Christian Claudel2026-03-09🤖 cs.AI

Whatever Remains Must Be True: Filtering Drives Reasoning in LLMs, Shaping Diversity

Este trabajo propone un método que utiliza la familia de divergencias α\alpha para aproximar una distribución objetivo filtrada, permitiendo controlar explícitamente la compensación entre precisión y diversidad en modelos de lenguaje grandes y superando a los enfoques anteriores en cobertura sin sacrificar el rendimiento en la resolución de problemas de razonamiento.

Germán Kruszewski, Pierre Erbacher, Jos Rozen, Marc Dymetman2026-03-09🤖 cs.AI

Exploiting Spatiotemporal Properties for Efficient Event-Driven Human Pose Estimation

Este trabajo propone un marco basado en nubes de puntos que explota las propiedades espacio-temporales de las cámaras de eventos mediante módulos de convolución y secuenciación, mejorando la estimación de la postura humana con mayor eficiencia computacional y precisión en comparación con los métodos tradicionales.

Haoxian Zhou, Chuanzhi Xu, Langyi Chen, Pengfei Ye, Haodong Chen, Yuk Ying Chung, Qiang Qu2026-03-09🤖 cs.AI

Data-Driven Global Sensitivity Analysis for Engineering Design Based on Individual Conditional Expectations

Este artículo propone un nuevo método de análisis de sensibilidad global basado en las curvas de Expectación Condicional Individual (ICE) para superar las limitaciones de los Gráficos de Dependencia Parcial (PDP) en la presencia de interacciones fuertes, demostrando mediante pruebas matemáticas y casos de estudio en ingeniería que esta aproximación ofrece una visión más rica y precisa de la importancia de las características en modelos de aprendizaje automático.

Pramudita Satria Palar, Paul Saves, Rommel G. Regis, Koji Shimoyama, Shigeru Obayashi, Nicolas Verstaevel, Joseph Morlier2026-03-09🤖 cs.AI

Understanding and Improving Hyperbolic Deep Reinforcement Learning

Este artículo presenta Hyper++, un agente de aprendizaje por refuerzo profundo en geometría hiperbólica que supera los desafíos de optimización mediante regularización de características, una función de pérdida categórica y capas mejoradas, logrando un entrenamiento estable y un rendimiento superior en entornos como ProcGen y Atari-5.

Timo Klein, Thomas Lang, Andrii Shkabrii, Alexander Sturm, Kevin Sidak, Lukas Miklautz, Claudia Plant, Yllka Velaj, Sebastian Tschiatschek2026-03-09🤖 cs.AI

Agent Tools Orchestration Leaks More: Dataset, Benchmark, and Mitigation

Este trabajo presenta el primer estudio sistemático del riesgo de privacidad en la orquestación de herramientas de agentes impulsados por LLMs, definiendo el marco TOP-R, creando el benchmark TOP-Bench para evaluar la fuga de información sensible a través de la inferencia compuesta, e identificando causas raíz y estrategias de mitigación que mejoran significativamente la seguridad sin comprometer la utilidad.

Yuxuan Qiao, Dongqin Liu, Hongchang Yang, Wei Zhou, Songlin Hu2026-03-09🤖 cs.AI

CARE What Fails: Contrastive Anchored-REflection for Verifiable Multimodal

El artículo presenta CARE, un marco de post-entrenamiento centrado en el fracaso para el razonamiento multimodal que transforma errores en señales de supervisión mediante un objetivo de contraste anclado y una re-muestreo guiado por reflexión, logrando mejoras significativas en precisión y suavidad de entrenamiento en comparación con métodos existentes como GRPO.

Yongxin Wang, Zhicheng Yang, Meng Cao, Mingfei Han, Haokun Lin, Yingying Zhu, Xiaojun Chang, Xiaodan Liang2026-03-09🤖 cs.AI

LLMTM: Benchmarking and Optimizing LLMs for Temporal Motif Analysis in Dynamic Graphs

Este artículo presenta LLMTM, un benchmark integral para evaluar y optimizar el rendimiento de los modelos de lenguaje grandes (LLM) en el análisis de motivos temporales en grafos dinámicos, proponiendo un agente aumentado con herramientas y un distribuidor consciente de la estructura que equilibra la alta precisión con la reducción de costos computacionales.

Bing Hao, Minglai Shao, Zengyi Wo, Yunlong Chu, Yuhang Liu, Ruijie Wang2026-03-09🤖 cs.AI

Window-based Membership Inference Attacks Against Fine-tuned Large Language Models

El artículo presenta WBC, un nuevo método de ataque de inferencia de membresía para modelos de lenguaje grandes ajustados que supera a las técnicas existentes al analizar señales de memorización localizadas mediante una comparación basada en ventanas deslizantes, en lugar de depender de promedios globales.

Yuetian Chen, Yuntao Du, Kaiyuan Zhang, Ashish Kundu, Charles Fleming, Bruno Ribeiro, Ninghui Li2026-03-09🤖 cs.AI