PromptDLA: A Domain-aware Prompt Document Layout Analysis Framework with Descriptive Knowledge as a Cue

El artículo presenta PromptDLA, un marco de análisis de diseño de documentos consciente del dominio que utiliza conocimientos descriptivos como pistas para integrar priores específicos en el entrenamiento, logrando un rendimiento superior al estado del arte en múltiples conjuntos de datos al abordar las variaciones estructurales entre diferentes dominios.

Zirui Zhang, Yaping Zhang, Lu Xiang, Yang Zhao, Feifei Zhai, Yu Zhou, Chengqing ZongWed, 11 Ma🤖 cs.AI

From Flow to One Step: Real-Time Multi-Modal Trajectory Policies via Implicit Maximum Likelihood Estimation-based Distribution Distillation

Este trabajo propone un marco que utiliza la estimación de máxima verosimilitud implícita para destilar una política experta de flujo condicional en un modelo de un solo paso, logrando así una planificación de trayectorias multimodal en tiempo real con alta frecuencia y robustez para la manipulación robótica.

Ju Dong, Liding Zhang, Lei Zhang, Yu Fu, Kaixin Bai, Zoltan-Csaba Marton, Zhenshan Bing, Zhaopeng Chen, Alois Christian Knoll, Jianwei ZhangWed, 11 Ma🤖 cs.AI

Investigating Gender Stereotypes in Large Language Models via Social Determinants of Health

Este estudio demuestra que los Modelos de Lenguaje Grande (LLM) reproducen estereotipos de género al analizar registros médicos en francés, revelando que evaluar las interacciones entre los determinantes sociales de la salud es esencial para detectar sesgos que las métricas tradicionales pasan por alto.

Trung Hieu Ngo, Adrien Bazoge, Solen Quiniou, Pierre-Antoine Gourraud, Emmanuel MorinWed, 11 Ma🤖 cs.AI

Open-World Motion Forecasting

Este trabajo introduce el primer marco de pronóstico de movimiento de clase incremental en un entorno abierto que, mediante estrategias de autoetiquetado y muestreo de replay, mitiga el olvido catastrófico para predecir trayectorias de agentes dinámicos directamente desde imágenes de cámara, permitiendo la adaptación continua de sistemas de conducción autónoma a nuevas clases de objetos.

Nicolas Schischka, Nikhil Gosala, B Ravi Kiran, Senthil Yogamani, Abhinav ValadaWed, 11 Ma🤖 cs.AI

Common Sense vs. Morality: The Curious Case of Narrative Focus Bias in LLMs

Este trabajo presenta CoMoral, un nuevo conjunto de datos que revela cómo los modelos de lenguaje actuales priorizan el razonamiento moral sobre el sentido común y muestran un sesgo de enfoque narrativo al detectar contradicciones, lo que subraya la necesidad de mejorar su entrenamiento para lograr una mayor robustez en el razonamiento.

Saugata Purkayastha, Pranav Kushare, Pragya Paramita Pal, Sukannya PurkayasthaWed, 11 Ma🤖 cs.AI

AI Act Evaluation Benchmark: An Open, Transparent, and Reproducible Evaluation Dataset for NLP and RAG Systems

Este artículo presenta un conjunto de datos abierto, transparente y reproducible diseñado para evaluar la conformidad de los sistemas NLP y RAG con la Ley de IA de la UE, mediante la generación automatizada de tareas de clasificación de riesgos, recuperación de artículos y generación de obligaciones que superan las limitaciones de las evaluaciones manuales.

Athanasios Davvetas, Michael Papademas, Xenia Ziouvelou, Vangelis KarkaletsisWed, 11 Ma🤖 cs.AI

A Guideline-Aware AI Agent for Zero-Shot Target Volume Auto-Delineation

El artículo presenta OncoAgent, un agente de IA consciente de las directrices clínicas que genera automáticamente volúmenes tumorales en radioterapia sin necesidad de reentrenamiento, logrando un rendimiento comparable a modelos supervisados y una mayor preferencia clínica gracias a su capacidad de adaptación inmediata a diferentes guías y sitios anatómicos.

Yoon Jo Kim, Wonyoung Cho, Jongmin Lee, Han Joo Chae, Hyunki Park, Sang Hoon Seo, Noh Jae Myung, Kyungmi Yang, Dongryul Oh, Jin Sung KimWed, 11 Ma🤖 cs.AI

Variational Routing: A Scalable Bayesian Framework for Calibrated Mixture-of-Experts Transformers

El artículo presenta VMoER, un enfoque bayesiano escalable que integra la cuantificación de incertidumbre en las capas de Mezcla de Expertos (MoE) de los modelos fundacionales mediante la inferencia variacional en la etapa de enrutamiento, logrando una mejora significativa en la estabilidad, calibración y detección de datos fuera de distribución con un costo computacional marginal.

Albus Yizhuo Li, Matthew WickerWed, 11 Ma🤖 cs.AI

An Empirical Study and Theoretical Explanation on Task-Level Model-Merging Collapse

Este artículo identifica y explica teóricamente el "colapso de fusión" en modelos de lenguaje, demostrando mediante análisis empírico que la incompatibilidad de representaciones entre tareas, y no los conflictos en el espacio de parámetros, es la causa principal de la degradación catastrófica del rendimiento al combinar modelos especializados.

Yuan Cao, Dezhi Ran, Yuzhe Guo, Mengzhou Wu, Simin Chen, Linyi Li, Wei Yang, Tao XieWed, 11 Ma🤖 cs.AI

EvoDriveVLA: Evolving Autonomous Driving Vision-Language-Action Model via Collaborative Perception-Planning Distillation

El artículo presenta EvoDriveVLA, un marco innovador de destilación colaborativa percepción-planificación que integra restricciones perceptuales autoancladas y optimización de trayectorias guiada por oráculos para superar las limitaciones de los modelos VLA en la conducción autónoma y lograr un rendimiento superior tanto en evaluaciones de circuito abierto como cerrado.

Jiajun Cao, Xiaoan Zhang, Xiaobao Wei, Liyuqiu Huang, Wang Zijian, Hanzhen Zhang, Zhengyu Jia, Wei Mao, Hao Wang, Xianming Liu, Shuchang Zhou Liu, Yang Wang, Shanghang ZhangWed, 11 Ma🤖 cs.AI

GenePlan: Evolving Better Generalized PDDL Plans using Large Language Models

El artículo presenta GenePlan, un marco novedoso que utiliza algoritmos evolutivos asistidos por modelos de lenguaje grandes para generar planificadores generalizados en Python que minimizan la longitud de los planes en tareas de planificación PDDL, logrando un rendimiento comparable al de los planificadores más avanzados y superando significativamente a otros enfoques basados en LLM.

Andrew Murray, Danial Dervovic, Alberto Pozanco, Michael CashmoreWed, 11 Ma🤖 cs.AI

Efficiently Aligning Draft Models via Parameter- and Data-Efficient Adaptation

El artículo presenta EDA, un marco eficiente en parámetros y datos que restaura el rendimiento de la decodificación especulativa en modelos de lenguaje ajustados mediante una arquitectura desacoplada, una estrategia de regeneración de datos y un mecanismo de selección de muestras, logrando así una adaptación rápida y de bajo costo sin necesidad de reentrenamiento completo.

Luxi Lin, Zhihang Lin, Zhanpeng Zeng, Yuhao Chen, Qingyu Zhang, Jixiang Luo, Xuelong Li, Rongrong JiWed, 11 Ma🤖 cs.AI

Enhancing Debunking Effectiveness through LLM-based Personality Adaptation

Este estudio propone un método novedoso que utiliza modelos de lenguaje grandes (LLM) para adaptar mensajes de desinformación a los rasgos de personalidad de los usuarios, demostrando que estas versiones personalizadas son más persuasivas que las genéricas y ofreciendo una evaluación automatizada que plantea importantes interrogantes éticos sobre su uso.

Pietro Dell'Oglio, Alessandro Bondielli, Francesco Marcelloni, Lucia C. PassaroWed, 11 Ma🤖 cs.AI