Safety Guardrails for LLM-Enabled Robots

El artículo presenta RoboGuard, una arquitectura de dos etapas que combina un modelo de lenguaje seguro con razonamiento de cadena de pensamiento y síntesis de control lógico temporal para contextualizar reglas de seguridad y prevenir comportamientos peligrosos en robots impulsados por modelos de lenguaje grandes, logrando reducir drásticamente la ejecución de planes inseguros ante ataques sin comprometer el rendimiento en tareas seguras.

Zachary Ravichandran, Alexander Robey, Vijay Kumar + 2 more2026-03-05🤖 cs.AI

MuRAL: A Multi-Resident Ambient Sensor Dataset Annotated with Natural Language for Activities of Daily Living

MuRAL es un nuevo conjunto de datos de sensores ambientales para múltiples residentes que incluye descripciones en lenguaje natural y anotaciones detalladas, diseñado para evaluar y revelar las limitaciones actuales de los modelos de lenguaje grandes en tareas de comprensión de actividades diarias en entornos inteligentes complejos.

Xi Chen, Julien Cumin, Fano Ramparany + 1 more2026-03-05🤖 cs.AI

Synthetic emotions and consciousness: exploring architectural boundaries

Este artículo propone un modelo arquitectónico modular de emociones sintéticas que, al integrar señales motivacionales y memoria episódica bajo cuatro restricciones de ingeniería diseñadas para excluir características de la conciencia, demuestra la viabilidad de implementar control emocional sin riesgo de instantiar conciencia accesible, ofreciendo así un marco para auditorías de seguridad y gobernanza de IA.

Hermann Borotschnig2026-03-05🤖 cs.AI

TPK: Trustworthy Trajectory Prediction Integrating Prior Knowledge For Interpretability and Kinematic Feasibility

El artículo propone TPK, un modelo de predicción de trayectorias confiable para la conducción autónoma que integra conocimientos previos sobre interacciones y cinemática específicos para vehículos, peatones y ciclistas, mejorando la interpretabilidad y garantizando la viabilidad física de las predicciones en escenarios de tráfico mixto.

Marius Baden, Ahmed Abouelazm, Christian Hubschneider + 3 more2026-03-05🤖 cs.AI

TSPulse: Tiny Pre-Trained Models with Disentangled Representations for Rapid Time-Series Analysis

TSPulse es una familia de modelos preentrenados ultraligeros que, mediante representaciones desacopladas en los dominios temporal, espectral y semántico junto con una estrategia de enmascaramiento híbrido, logra un rendimiento superior en tareas de diagnóstico de series temporales y transferencia cero-shot, superando a modelos mucho más grandes con una eficiencia computacional notable.

Vijay Ekambaram, Subodh Kumar, Arindam Jati + 5 more2026-03-05🤖 cs.AI

Extremely Simple Multimodal Outlier Synthesis for Out-of-Distribution Detection and Segmentation

Este trabajo presenta "Feature Mixing", un método multimodal extremadamente simple y rápido para la síntesis de valores atípicos que mejora la detección y segmentación de datos fuera de distribución, junto con el nuevo conjunto de datos CARLA-OOD, logrando un rendimiento de vanguardia con una aceleración de hasta 370 veces en comparación con métodos anteriores.

Moru Liu, Hao Dong, Jessica Kelly + 2 more2026-03-05🤖 cs.AI

SafeDPO: A Simple Approach to Direct Preference Optimization with Enhanced Safety

El artículo presenta SafeDPO, un método ligero y teóricamente fundamentado que optimiza directamente la alineación de seguridad en modelos de lenguaje grandes utilizando solo datos de preferencia e indicadores de seguridad, eliminando la necesidad de modelos de recompensa o muestreo en línea mientras logra un equilibrio competitivo entre seguridad y utilidad.

Geon-Hyeong Kim, Yu Jin Kim, Byoungjip Kim + 4 more2026-03-05🤖 cs.AI

R1-Code-Interpreter: LLMs Reason with Code via Supervised and Multi-stage Reinforcement Learning

El artículo presenta R1-Code-Interpreter, un modelo de lenguaje entrenado mediante ajuste fino supervisado y aprendizaje por refuerzo multi-etapa que, al utilizar un enfoque de aprendizaje curricular para gestionar tareas heterogéneas, logra superar a modelos avanzados como GPT-4o en precisión y demostrar comportamientos emergentes de autoverificación mediante la ejecución autónoma de código.

Yongchao Chen, Yueying Liu, Junwei Zhou + 5 more2026-03-05🤖 cs.AI

Boosting In-Context Learning in LLMs Through the Lens of Classical Supervised Learning

Este artículo propone Supervised Calibration (SC), un marco unificado basado en la minimización de pérdidas que supera las limitaciones de los métodos de calibración actuales en el aprendizaje en contexto (ICL) al aprender transformaciones afines óptimas que pueden alterar la orientación de los límites de decisión de los LLM, logrando así un rendimiento superior en múltiples conjuntos de datos y modelos.

Korel Gundem, Juncheng Dong, Dennis Zhang + 2 more2026-03-05🤖 cs.AI