Vision Transformers that Never Stop Learning

Este trabajo investiga la pérdida de plasticidad en Vision Transformers (ViTs), identifica que los módulos de atención y redes feed-forward son particularmente vulnerables, y propone ARROW, un optimizador geométrico que preserva la plasticidad mediante la adaptación de las direcciones del gradiente, demostrando ser más efectivo que los métodos de re-inicialización para el aprendizaje continuo.

Caihao Sun, Mingqi Yuan, Shiyuan Wang, Jiayu Chen2026-03-10🤖 cs.LG

Toward Global Intent Inference for Human Motion by Inverse Reinforcement Learning

Este artículo demuestra que es posible predecir con alta precisión los movimientos de alcance humanos mediante una única función de costo agnóstica al sujeto y a la postura, utilizando el algoritmo MO-IRL para inferir pesos temporales variables que revelan un principio de optimalidad unificado dominado por la regulación de la aceleración articular.

Sarmad Mehrdad, Maxime Sabbah, Vincent Bonnet, Ludovic Righetti2026-03-10🤖 cs.LG

Learning embeddings of non-linear PDEs: the Burgers' equation

Este trabajo presenta un método que generaliza los embeddings a las redes neuronales informadas por física para construir espacios de incrustación de soluciones de ecuaciones diferenciales parciales no lineales, como la ecuación de Burgers viscosa, mediante un diseño de múltiples cabezales con restricciones de ortogonalidad que permiten una descomposición robusta e interpretable del espacio latente.

Pedro Tarancón-Álvarez, Leonid Sarieddine, Pavlos Protopapas, Raul Jimenez2026-03-10🤖 cs.LG

Fusion Complexity Inversion: Why Simpler Cross View Modules Outperform SSMs and Cross View Attention Transformers for Pasture Biomass Regression

Este estudio demuestra que, para la estimación de biomasa de pastizales con datos escasos, la calidad del modelo base preentrenado y el uso de módulos de fusión locales y simples (como convoluciones) superan significativamente a arquitecturas complejas como los transformadores de atención cruzada o los SSMs, estableciendo un principio de "inversión de complejidad de fusión" que prioriza la simplicidad sobre la sofisticación en benchmarks agrícolas.

Mridankan Mandal2026-03-10🤖 cs.LG

Transferable Optimization Network for Cross-Domain Image Reconstruction

Este artículo presenta un marco de aprendizaje transferible basado en optimización bi-nivel que combina un extractor de características universal entrenado con datos heterogéneos y un adaptador específico del dominio para lograr una reconstrucción de alta calidad de imágenes de resonancia magnética submuestreadas, incluso cuando se dispone de datos de entrenamiento limitados.

Yunmei Chen, Chi Ding, Xiaojing Ye2026-03-10🤖 cs.LG

Gradient Iterated Temporal-Difference Learning

Este trabajo presenta el aprendizaje iterado de diferencias temporales con gradiente (Gradient Iterated TD), un nuevo algoritmo que modifica el enfoque iterado para calcular gradientes sobre objetivos móviles, logrando por primera vez una velocidad de aprendizaje competitiva con los métodos semigradientes en tareas complejas como los juegos de Atari mientras mantiene la estabilidad de los métodos basados en gradiente.

Théo Vincent, Kevin Gerhardt, Yogesh Tripathi, Habib Maraqten, Adam White, Martha White, Jan Peters, Carlo D'Eramo2026-03-10🤖 cs.LG

Viewpoint-Agnostic Grasp Pipeline using VLM and Partial Observations

Este artículo presenta un pipeline de agarre guiado por lenguaje para manipuladores móviles que combina detección de objetos, completado de nubes de puntos y filtrado de colisiones para lograr una ejecución robusta en entornos desordenados con observaciones parciales, logrando un 90% de éxito en pruebas reales frente al 30% de un método dependiente de la vista.

Dilermando Almeida, Juliano Negri, Guilherme Lazzarini, Thiago H. Segreto, Ranulfo Bezerra, Ricardo V. Godoy, Marcelo Becker2026-03-10🤖 cs.LG

Hospitality-VQA: Decision-Oriented Informativeness Evaluation for Vision-Language Models

Este trabajo introduce un nuevo marco de "informatividad" y un conjunto de datos específico para evaluar la capacidad de los Modelos Visuales-Lingüísticos (VLM) en el sector hotelero, revelando que, aunque estos modelos carecen de conciencia decisional inherente, pueden adquirir un razonamiento fiable tras un ajuste fino modesto.

Jeongwoo Lee, Baek Duhyeong, Eungyeol Han, Soyeon Shin, Gukin han, Seungduk Kim, Jaehyun Jeon, Taewoo Jeong2026-03-10🤖 cs.LG

Reject, Resample, Repeat: Understanding Parallel Reasoning in Language Model Inference

Este artículo introduce un marco teórico basado en el filtrado de partículas para analizar rigurosamente los métodos de inferencia paralela en modelos de lenguaje, identificando garantías no asintóticas, mejoras algorítmicas y límites fundamentales, aunque sus hallazgos empíricos sugieren que la precisión final depende de factores más allá del error de muestreo.

Noah Golowich, Fan Chen, Dhruv Rohatgi, Raghav Singhal, Carles Domingo-Enrich, Dylan J. Foster, Akshay Krishnamurthy2026-03-10🤖 cs.LG

Designing probabilistic AI monsoon forecasts to inform agricultural decision-making

Los autores presentan un marco de teoría de decisiones y un sistema de pronóstico híbrido que combina modelos de inteligencia artificial con expectativas agrícolas evolutivas para generar pronósticos probabilísticos del monzón más precisos, los cuales fueron implementados exitosamente en 2025 para guiar las decisiones de 38 millones de agricultores indios.

Colin Aitken, Rajat Masiwal, Adam Marchakitus, Katherine Kowal, Mayank Gupta, Tyler Yang, Amir Jina, Pedram Hassanzadeh, William R. Boos, Michael Kremer2026-03-10🤖 cs.LG

LeJOT-AutoML: LLM-Driven Feature Engineering for Job Execution Time Prediction in Databricks Cost Optimization

El artículo presenta LeJOT-AutoML, un marco de AutoML impulsado por agentes de modelos de lenguaje que automatiza la ingeniería de características mediante la extracción de datos de logs y metadatos para predecir con precisión los tiempos de ejecución en Databricks, reduciendo el ciclo de desarrollo de semanas a minutos y logrando un ahorro de costos del 19,01% mediante una optimización mejorada de la orquestación.

Lizhi Ma, Yi-Xiang Hu, Yihui Ren, Feng Wu, Xiang-Yang Li2026-03-10🤖 cs.LG

Revisiting Unknowns: Towards Effective and Efficient Open-Set Active Learning

El artículo presenta E²OAL, un marco unificado y sin detectores para el aprendizaje activo de conjunto abierto que aprovecha las clases desconocidas etiquetadas mediante agrupamiento estructurado y calibración dirichlet para lograr un rendimiento superior en precisión, eficiencia y selección de muestras en comparación con los métodos actuales.

Chen-Chen Zong, Yu-Qi Chi, Xie-Yang Wang, Yan Cui, Sheng-Jun Huang2026-03-10🤖 cs.LG