HaDR: Applying Domain Randomization for Generating Synthetic Multimodal Dataset for Hand Instance Segmentation in Cluttered Industrial Environments

Este estudio presenta HaDR, un enfoque que utiliza la aleatorización de dominios para generar un conjunto de datos sintético multimodal (RGB-D) que permite entrenar modelos de segmentación de instancias de manos robustos y agnósticos al color en entornos industriales desordenados, superando en precisión a los modelos entrenados con conjuntos de datos reales existentes.

Stefan Grushko, Aleš Vysocký, Jakub Chlebek + 1 more2026-02-23💻 cs

GIFT: A Framework Towards Global Interpretable Faithful Textual Explanations of Vision Classifiers

El marco GIFT propone un enfoque post-hoc que genera explicaciones textuales globales, interpretables y fieles para clasificadores visuales, combinando la creación de contrafactuales visuales, su traducción a lenguaje natural mediante modelos visión-idioma y una verificación causal rigurosa para revelar las reglas de decisión y sesgos latentes de los modelos.

Éloi Zablocki, Valentin Gerard, Amaia Cardiel + 3 more2026-02-23💻 cs

Data-Efficient Inference of Neural Fluid Fields via SciML Foundation Model

Este trabajo demuestra que los modelos fundamentales de aprendizaje científico (SciML) pueden reducir significativamente los requisitos de datos y mejorar la generalización en la inferencia de campos de fluidos neuronales 3D en el mundo real mediante una estrategia de entrenamiento colaborativo que aprovecha representaciones y marcos aumentados extraídos de simulaciones de ecuaciones diferenciales parciales.

Yuqiu Liu, Jingxuan Xu, Mauricio Soroco + 2 more2026-02-23🤖 cs.LG

Scaling Laws in Patchification: An Image Is Worth 50,176 Tokens And More

Este trabajo demuestra que reducir progresivamente el tamaño de los parches en modelos de visión hasta llegar a la tokenización a nivel de píxel (1x1) mejora consistentemente el rendimiento en diversas tareas y arquitecturas, permitiendo escalar secuencias visuales a más de 50.000 tokens sin necesidad de cabezales de decodificación específicos para tareas densas.

Feng Wang, Yaodong Yu, Guoyizhe Wei + 4 more2026-02-23💻 cs

A Pragmatic Note on Evaluating Generative Models with Fréchet Inception Distance for Retinal Image Synthesis

Este artículo examina las limitaciones de la Distancia Fréchet Inception (FID) como métrica de evaluación para la síntesis de imágenes retinianas, demostrando que no se alinea con los objetivos de tareas específicas como la clasificación y la segmentación, y aboga por evaluar los modelos generativos mediante su integración en el entrenamiento de tareas posteriores.

Yuli Wu, Fucheng Liu, Rüveyda Yilmaz + 3 more2026-02-23🤖 cs.LG

Analyzing the Training Dynamics of Image Restoration Transformers: A Revisit to Layer Normalization

Este trabajo identifica que la normalización de capa convencional perjudica el entrenamiento de los transformadores para la restauración de imágenes al causar divergencia de magnitudes y colapso de entropía, y propone una nueva normalización adaptativa (i-LN) que corrige estas desalineaciones para mejorar tanto la dinámica de entrenamiento como el rendimiento final.

MinKyu Lee, Sangeek Hyun, Woojin Jun + 3 more2026-02-23💻 cs

eStonefish-Scenes: A Sim-to-Real Validated and Robot-Centric Event-based Optical Flow Dataset for Underwater Vehicles

Este artículo presenta eStonefish-Scenes, un dataset sintético de flujo óptico basado en eventos validado en escenarios reales para vehículos submarinos, junto con la librería eWiz, demostrando que el entrenamiento exclusivo con datos simulados permite una estimación precisa del flujo óptico en entornos reales sin necesidad de ajuste fino.

Jad Mansour, Sebastian Realpe, Hayat Rajani + 3 more2026-02-23💻 cs

Mod-Adapter: Tuning-Free and Versatile Multi-concept Personalization via Modulation Adapter

El artículo presenta Mod-Adapter, un método sin ajuste previo que personaliza múltiples conceptos (tanto objetos como abstractos) en la generación de imágenes mediante un adaptador de modulación que utiliza atención cruzada visión-idioma y capas de expertos mixtos, todo ello optimizado con una estrategia de preentrenamiento guiada por modelos de lenguaje visual.

Weizhi Zhong, Huan Yang, Zheng Liu + 5 more2026-02-23💻 cs

GraphGSOcc: Semantic-Geometric Graph Transformer with Dynamic-Static Decoupling for 3D Gaussian Splatting-based Occupancy Prediction

El artículo presenta GraphGSOcc, un marco novedoso que combina transformadores gráficos semántico-geométricos con un mecanismo de desacoplamiento dinámico-estático para mejorar la predicción de ocupación semántica 3D basada en Gaussian Splatting, logrando resultados de vanguardia en precisión y eficiencia de memoria en múltiples conjuntos de datos de conducción autónoma.

Ke Song, Yunhe Wu, Chunchit Siu + 1 more2026-02-23🤖 cs.AI

View Invariant Learning for Vision-Language Navigation in Continuous Environments

Este artículo presenta VIL, un marco de aprendizaje post-entrenamiento basado en aprendizaje contrastivo y distilación de conocimiento que logra invarianza ante cambios de perspectiva en la navegación visión-lenguaje en entornos continuos, mejorando significativamente el rendimiento en benchmarks estándar y configuraciones de robots reales sin degradar las capacidades en entornos de vista fija.

Josh Qixuan Sun, Huaiyuan Weng, Xiaoying Xing + 2 more2026-02-23🤖 cs.LG