Zero-Shot and Supervised Bird Image Segmentation Using Foundation Models: A Dual-Pipeline Approach with Grounding DINO~1.5, YOLOv11, and SAM~2.1

Questo articolo presenta un approccio a doppia pipeline per la segmentazione di immagini di uccelli basato su modelli fondazionali del 2025, che combina Grounding DINO 1.5 e YOLOv11 con SAM 2.1 per ottenere risultati di precisione superiore sia in modalità zero-shot che supervisionata, superando le reti di segmentazione tradizionali.

Abhinav Munagala2026-03-11🤖 cs.AI

DOCFORGE-BENCH: A Comprehensive 0-shot Benchmark for Document Forgery Detection and Analysis

Il paper introduce DOCFORGE-BENCH, il primo benchmark zero-shot per la rilevazione di falsificazioni documentali, rivelando che i metodi attuali falliscono nella pratica non per carenze rappresentative ma a causa di una scarsa calibrazione delle soglie dovuta alla rarità delle regioni alterate, sottolineando al contempo la necessità urgente di valutare nuove minacce basate sull'IA generativa.

Zengqi Zhao, Weidi Xia, En Wei, Yan Zhang, Jane Mo, Tiannan Zhang, Yuanqin Dai, Zexi Chen, Yiran Tao, Simiao Ren2026-03-11💻 cs

Pri4R: Learning World Dynamics for Vision-Language-Action Models with Privileged 4D Representation

Il paper introduce Pri4R, un approccio semplice ed efficace che potenzia i modelli Vision-Language-Action con una comprensione implicita delle dinamiche del mondo attraverso l'addestramento su rappresentazioni 4D privilegiate, migliorando significativamente le prestazioni nei compiti di manipolazione fisica senza aggiungere overhead computazionale durante l'inferenza.

Jisoo Kim, Jungbin Cho, Sanghyeok Chu, Ananya Bal, Jinhyung Kim, Gunhee Lee, Sihaeng Lee, Seung Hwan Kim, Bohyung Han, Hyunmin Lee, Laszlo A. Jeni, Seungryong Kim2026-03-11🤖 cs.AI

Granulon: Awakening Pixel-Level Visual Encoders with Adaptive Multi-Granularity Semantics for MLLM

Il paper presenta Granulon, un nuovo modello MLLM basato su DINOv3 che integra un controller di granularità testuale e un modulo di aggregazione adattiva per unificare il ragionamento visivo a più livelli di dettaglio, migliorando significativamente l'accuratezza e riducendo le allucinazioni.

Junyuan Mao, Qiankun Li, Linghao Meng, Zhicheng He, Xinliang Zhou, Kun Wang, Yang Liu, Yueming Jin2026-03-11💻 cs

VisionCreator-R1: A Reflection-Enhanced Native Visual-Generation Agentic Model

Il paper presenta VisionCreator-R1, un agente nativo per la generazione visiva potenziato da meccanismi di riflessione e addestrato tramite un metodo di ottimizzazione congiunta (RPCO) che risolve l'asimmetria nell'apprendimento per rinforzo tra pianificazione e riflessione, superando le prestazioni di Gemini2.5Pro su benchmark per la generazione di immagini singole e multiple.

Jinxiang Lai, Wenzhe Zhao, Zexin Lu, Hualei Zhang, Qinyu Yang, Rongwei Quan, Zhimin Li, Shuai Shao, Song Guo, Qinglin Lu2026-03-11💻 cs

A Lightweight Multi-Cancer Tumor Localization Framework for Deployable Digital Pathology

Il paper presenta MuCTaL, un framework di localizzazione tumorale leggero e addestrato su quattro tipi di cancro che, pur mostrando una buona generalizzazione su un quinto tipo non visto, dimostra come l'addestramento bilanciato su scala moderata possa ottenere prestazioni elevate per l'analisi digitale delle patologie.

Brian Isett, Rebekah Dadey, Aofei Li, Ryan C. Augustin, Kate Smith, Aatur D. Singhi, Qiangqiang Gu, Riyue Bao2026-03-11🤖 cs.AI

HECTOR: Hybrid Editable Compositional Object References for Video Generation

HECTOR è un nuovo pipeline generativo che supera i limiti dei modelli attuali consentendo un controllo compositivo fine-granularità sui video attraverso un'ibridazione di riferimenti statici e dinamici, permettendo agli utenti di definire esplicitamente le traiettorie, la posizione, la scala e la velocità di ciascun elemento per garantire coerenza spaziotemporale e alta fedeltà visiva.

Guofeng Zhang, Angtian Wang, Jacob Zhiyuan Fang, Liming Jiang, Haotian Yang, Alan Yuille, Chongyang Ma2026-03-11💻 cs

Comparative Analysis of Patch Attack on VLM-Based Autonomous Driving Architectures

Questo studio presenta un framework sistematico per valutare la vulnerabilità di tre architetture VLM per la guida autonoma agli attacchi fisici tramite patch, rivelando gravi difetti di robustezza e modelli di vulnerabilità specifici che ne compromettono l'affidabilità in scenari critici per la sicurezza.

David Fernandez, Pedram MohajerAnsari, Amir Salarpour, Long Cheng, Abolfazl Razi, Mert D. Pesé2026-03-11💻 cs

Vision-Language Models Encode Clinical Guidelines for Concept-Based Medical Reasoning

Il paper presenta MedCBR, un nuovo framework di ragionamento basato su concetti che integra le linee guida cliniche nei modelli visione-linguaggio per migliorare l'interpretabilità e l'affidabilità delle diagnosi mediche attraverso la generazione di narrazioni cliniche strutturate.

Mohamed Harmanani, Bining Long, Zhuoxin Guo, Paul F. R. Wilson, Amirhossein Sabour, Minh Nguyen Nhat To, Gabor Fichtinger, Purang Abolmaesumi, Parvin Mousavi2026-03-11🤖 cs.LG

TIDE: Text-Informed Dynamic Extrapolation with Step-Aware Temperature Control for Diffusion Transformers

Il paper presenta TIDE, un metodo di estrazione senza addestramento per i Diffusion Transformer che risolve i problemi di degradazione strutturale e perdita di dettagli nelle immagini ad alta risoluzione bilanciando i token testuali e immateriali tramite un ancoraggio testuale e un controllo dinamico della temperatura basato sulla progressione spettrale.

Yihua Liu, Fanjiang Ye, Bowen Lin, Rongyu Fang, Chengming Zhang2026-03-11💻 cs

Using Vision Language Foundation Models to Generate Plant Simulation Configurations via In-Context Learning

Questo studio introduce un benchmark sintetico e propone un approccio innovativo che utilizza modelli visione-linguaggio fondazionali (Gemma 3 e Qwen3-VL) per generare automaticamente configurazioni JSON per simulazioni di piante da immagini di droni, offrendo un framework scalabile per la creazione di gemelli digitali in agricoltura.

Heesup Yun, Isaac Kazuo Uyehara, Earl Ranario, Lars Lundqvist, Christine H. Diepenbrock, Brian N. Bailey, J. Mason Earles2026-03-11🤖 cs.AI

PathoScribe: Transforming Pathology Data into a Living Library with a Unified LLM-Driven Framework for Semantic Retrieval and Clinical Integration

Il paper presenta PathoScribe, un framework unificato basato su modelli linguistici di grandi dimensioni (LLM) che trasforma gli archivi di patologia statici in una "biblioteca vivente" interattiva, abilitando il recupero semantico, il ragionamento clinico e la costruzione automatizzata di coorti di ricerca con elevata precisione ed efficienza.

Abdul Rehman Akbar, Samuel Wales-McGrath, Alejadro Levya, Lina Gokhale, Rajendra Singh, Wei Chen, Anil Parwani, Muhammad Khalid Khan Niazi2026-03-11🤖 cs.AI