Zero-Shot and Supervised Bird Image Segmentation Using Foundation Models: A Dual-Pipeline Approach with Grounding DINO~1.5, YOLOv11, and SAM~2.1

Este artículo presenta un marco de doble flujo para la segmentación de imágenes de aves que combina Grounding DINO 1.5 y YOLOv11 con el modelo SAM 2.1, logrando resultados de vanguardia tanto en modo cero disparos como supervisado al superar las redes de segmentación tradicionales sin necesidad de reentrenar el modelo de segmentación.

Abhinav Munagala2026-03-11🤖 cs.AI

DOCFORGE-BENCH: A Comprehensive 0-shot Benchmark for Document Forgery Detection and Analysis

El documento presenta DOCFORGE-BENCH, el primer benchmark unificado de cero disparos para la detección de falsificaciones documentales, que revela que el principal obstáculo para el despliegue práctico no es la capacidad de discriminación de los modelos, sino una falla de calibración crítica causada por la baja proporción de píxeles alterados, la cual puede mitigarse mediante la adaptación del umbral sin necesidad de reentrenamiento.

Zengqi Zhao, Weidi Xia, En Wei, Yan Zhang, Jane Mo, Tiannan Zhang, Yuanqin Dai, Zexi Chen, Yiran Tao, Simiao Ren2026-03-11💻 cs

Pri4R: Learning World Dynamics for Vision-Language-Action Models with Privileged 4D Representation

El artículo presenta Pri4R, un enfoque que mejora los modelos de Visión-Lenguaje-Acción (VLA) al incorporar dinámicas del mundo mediante el aprendizaje de trayectorias de puntos 3D durante el entrenamiento, logrando así un control físico más preciso sin añadir sobrecarga computacional en la inferencia.

Jisoo Kim, Jungbin Cho, Sanghyeok Chu, Ananya Bal, Jinhyung Kim, Gunhee Lee, Sihaeng Lee, Seung Hwan Kim, Bohyung Han, Hyunmin Lee, Laszlo A. Jeni, Seungryong Kim2026-03-11🤖 cs.AI

Performance Analysis of Edge and In-Sensor AI Processors: A Comparative Review

Esta revisión analiza el panorama de los procesadores de IA de ultra bajo consumo, comparando arquitecturas heterogéneas, aceleradores neuronales y diseños en el sensor, y valida empíricamente el rendimiento de tres plataformas representativas (GAP9, STM32N6 e IMX500) para demostrar la superioridad de la computación en el sensor en términos de eficiencia energética y latencia.

Luigi Capogrosso, Pietro Bonazzi, Michele Magno2026-03-11🤖 cs.LG

Granulon: Awakening Pixel-Level Visual Encoders with Adaptive Multi-Granularity Semantics for MLLM

Granulon es un nuevo modelo de lenguaje multimodal basado en DINOv3 que supera las limitaciones de los encoders visuales actuales mediante un controlador de granularidad condicionado por texto y una agregación de tokens adaptativa, logrando un razonamiento unificado de nivel de píxel a concepto global que mejora la precisión y reduce las alucinaciones.

Junyuan Mao, Qiankun Li, Linghao Meng, Zhicheng He, Xinliang Zhou, Kun Wang, Yang Liu, Yueming Jin2026-03-11💻 cs

VisionCreator-R1: A Reflection-Enhanced Native Visual-Generation Agentic Model

El artículo presenta VisionCreator-R1, un agente nativo de generación visual que incorpora mecanismos de reflexión explícita y un método de entrenamiento de co-optimización reflexión-plan (RPCO) para corregir errores en tiempo real, superando consistentemente a modelos como Gemini2.5Pro en tareas de generación de imágenes individuales y múltiples.

Jinxiang Lai, Wenzhe Zhao, Zexin Lu, Hualei Zhang, Qinyu Yang, Rongwei Quan, Zhimin Li, Shuai Shao, Song Guo, Qinglin Lu2026-03-11💻 cs

A Lightweight Multi-Cancer Tumor Localization Framework for Deployable Digital Pathology

El artículo presenta MuCTaL, un marco de aprendizaje profundo ligero y generalizable entrenado con datos de cuatro tipos de cáncer que logra una localización precisa de tumores en imágenes de patología digital y demuestra capacidad de adaptación a tipos tumorales no vistos, como el adenocarcinoma pancreático.

Brian Isett, Rebekah Dadey, Aofei Li, Ryan C. Augustin, Kate Smith, Aatur D. Singhi, Qiangqiang Gu, Riyue Bao2026-03-11🤖 cs.AI

Comparative Analysis of Patch Attack on VLM-Based Autonomous Driving Architectures

Este artículo presenta un marco sistemático que demuestra mediante ataques de parche físicos en simulación CARLA que las arquitecturas de modelos visión-idioma (VLM) para conducción autónoma, como Dolphins, OmniDrive y LeapVAD, son severamente vulnerables a perturbaciones adversarias, revelando fallos críticos en la detección de objetos y patrones de vulnerabilidad específicos en cada diseño.

David Fernandez, Pedram MohajerAnsari, Amir Salarpour, Long Cheng, Abolfazl Razi, Mert D. Pesé2026-03-11💻 cs

Towards Visual Query Segmentation in the Wild

Este trabajo introduce la segmentación de consultas visuales (VQS) como un nuevo paradigma para localizar todos los objetos de interés a nivel de píxel en videos no recortados, presentando el benchmark VQS-4K y el método VQ-SAM, que supera a las técnicas existentes al extender SAM 2 mediante un marco de memoria adaptativa.

Bing Fan, Minghao Li, Hanzhi Zhang, Shaohua Dong, Naga Prudhvi Mareedu, Weishi Shi, Yunhe Feng, Yan Huang, Heng Fan2026-03-11💻 cs

Multi-Kernel Gated Decoder Adapters for Robust Multi-Task Thyroid Ultrasound under Cross-Center Shift

Este artículo propone adaptadores de decodificador de múltiples núcleos con puertas (MKGA) que, al combinar las fortalezas de las CNN y los ViT para preservar simultáneamente las texturas y las geometrías bajo desplazamientos de dominio entre centros, mejoran la robustez en la segmentación y el diagnóstico de malignidad en ecografías tiroideas multi-tarea.

Maziar Sabouri, Nourhan Bayasi, Arman Rahmim2026-03-11🔬 physics

Vision-Language Models Encode Clinical Guidelines for Concept-Based Medical Reasoning

El artículo presenta MedCBR, un marco de razonamiento basado en conceptos que integra guías clínicas y modelos de lenguaje-visión para mejorar la interpretabilidad y el rendimiento diagnóstico en imágenes médicas mediante la generación de narrativas clínicas estructuradas.

Mohamed Harmanani, Bining Long, Zhuoxin Guo, Paul F. R. Wilson, Amirhossein Sabour, Minh Nguyen Nhat To, Gabor Fichtinger, Purang Abolmaesumi, Parvin Mousavi2026-03-11🤖 cs.LG

MEGC2026: Micro-Expression Grand Challenge on Visual Question Answering

El artículo presenta el Reto de Gran Expresión Micro (MEGC) 2026, una iniciativa que introduce dos nuevas tareas de respuesta a preguntas visuales (ME-VQA y ME-LVQA) para evaluar la capacidad de los modelos de lenguaje y visión grandes en el análisis y razonamiento temporal de expresiones faciales micro en secuencias de video cortas y largas.

Xinqi Fan, Jingting Li, John See, Moi Hoon Yap, Su-Jing Wang, Adrian K. Davison2026-03-11💻 cs

TIDE: Text-Informed Dynamic Extrapolation with Step-Aware Temperature Control for Diffusion Transformers

El artículo presenta TIDE, un método sin entrenamiento que mejora la extrapolación de resolución en los Transformadores de Difusión (DiT) mediante un mecanismo de anclaje de texto y un control dinámico de temperatura, logrando así generar imágenes de alta calidad en resoluciones y proporciones arbitrarias sin degradación estructural ni sobrecarga de muestreo.

Yihua Liu, Fanjiang Ye, Bowen Lin, Rongyu Fang, Chengming Zhang2026-03-11💻 cs

Using Vision Language Foundation Models to Generate Plant Simulation Configurations via In-Context Learning

Este estudio presenta un nuevo enfoque que utiliza modelos fundacionales de visión y lenguaje (Gemma 3 y Qwen3-VL) para generar configuraciones JSON de simulaciones de plantas a partir de imágenes de drones, demostrando su potencial para escalar la creación de gemelos digitales agrícolas mediante aprendizaje en contexto, aunque también revela limitaciones en la precisión de los parámetros biofísicos cuando faltan pistas visuales claras.

Heesup Yun, Isaac Kazuo Uyehara, Earl Ranario, Lars Lundqvist, Christine H. Diepenbrock, Brian N. Bailey, J. Mason Earles2026-03-11🤖 cs.AI

PathoScribe: Transforming Pathology Data into a Living Library with a Unified LLM-Driven Framework for Semantic Retrieval and Clinical Integration

El artículo presenta PathoScribe, un marco unificado impulsado por modelos de lenguaje grandes que transforma los archivos de patología estáticos en una biblioteca viva y razonable, permitiendo la recuperación semántica, la construcción automatizada de cohortes y la integración clínica con una precisión y eficiencia significativamente superiores a los métodos tradicionales.

Abdul Rehman Akbar, Samuel Wales-McGrath, Alejadro Levya, Lina Gokhale, Rajendra Singh, Wei Chen, Anil Parwani, Muhammad Khalid Khan Niazi2026-03-11🤖 cs.AI