Optimizing Multi-Modal Models for Image-Based Shape Retrieval: The Role of Pre-Alignment and Hard Contrastive Learning

Dit artikel presenteert een methode voor beeldgebaseerde vormretrieval die gebruikmaakt van vooraf uitgelijnde multi-modale encoders en een hard contrastief verlies om state-of-the-art prestaties te bereiken zonder dat view-synthese of hertraining op de doel-database nodig is.

Paul Julius Kühn, Cedric Spengler, Michael Weinmann, Arjan Kuijper, Saptarshi Neil Sinha2026-03-10💻 cs

Perception-Aware Multimodal Spatial Reasoning from Monocular Images

Dit paper introduceert een perceptiebewust multimodaal redeneringsframework dat Vision-Language Models versterkt met object-gerichte grounding via visuele referentietokens en een Multimodal Chain-of-Thought-dataset, waardoor aanzienlijke verbeteringen worden behaald in ruimtelijk redeneren uit monoculaire beelden voor autonoom rijden.

Yanchun Cheng, Rundong Wang, Xulei Yang, Alok Prakash, Daniela Rus, Marcelo H Ang Jr, ShiJie Li2026-03-10💻 cs

ADAS-TO: A Large-Scale Multimodal Naturalistic Dataset and Empirical Characterization of Human Takeovers during ADAS Engagement

Dit paper introduceert ADAS-TO, het eerste grote, openbare multimodale dataset dat zich richt op natuurlijke overnames van ADAS naar handmatige besturing, en biedt empirische inzichten in de dynamiek van kritieke situaties die aantonen dat visuele waarschuwingen vaak eerder mogelijk zijn dan kinematische triggers.

Yuhang Wang, Yiyao Xu, Jingran Sun, Hao Zhou2026-03-10💻 cs

TrajPred: Trajectory-Conditioned Joint Embedding Prediction for Surgical Instrument-Tissue Interaction Recognition in Vision-Language Models

Dit paper introduceert TrajPred, een framework dat instrumenttrajectoires en visueel-taalmodellen combineert om de nauwkeurigheid van de herkenning van interacties tussen chirurgische instrumenten en weefsels te verbeteren door tijdsafhankelijke bewegingsinformatie en fijne actie-details beter te benutten.

Jiajun Cheng, Xiaofan Yu, Subarna, Sainan Liu, Shan Lin2026-03-10💻 cs

OV-DEIM: Real-time DETR-Style Open-Vocabulary Object Detection with GridSynthetic Augmentation

Dit paper introduceert OV-DEIM, een real-time open-vocabulary objectdetector op basis van het DEIMv2-architectuur die, door middel van een query-aanvullingsstrategie en de nieuwe GridSynthetic-dataaugmentatietechniek, state-of-the-art prestaties bereikt met verbeterde efficiëntie en detectie van zeldzame categorieën.

Leilei Wang, Longfei Liu, Xi Shen, Xuanlong Yu, Ying Tiffany He, Fei Richard Yu, Yingyi Chen2026-03-10💻 cs

Looking Back and Forth: Cross-Image Attention Calibration and Attentive Preference Learning for Multi-Image Hallucination Mitigation

Dit paper introduceert CAPL, een framework dat hallucinaties in multi-image taken van grote vision-language modellen aanpakt door cross-image attentie te kalibreren en voorkeurslering toe te passen om de interactie tussen afbeeldingen te verbeteren en de afhankelijkheid van tekstuele priors te verminderen.

Xiaochen Yang, Hao Fang, Jiawei Kong, Yaoxin Mao, Bin Chen, Shu-Tao Xia2026-03-10💻 cs

NuNext: Reframing Nucleus Detection as Next-Point Detection

Het artikel NuNext introduceert een nieuwe methode voor nucleaire detectie in histopathologie die het probleem herschrijft als next-point detectie met een multimodaal groot taalmodel, gebruikmakend van twee trainingsfasen met ruimtelijke zachte supervisie en versterkingsleer om de prestaties op negen benchmarks aanzienlijk te verbeteren.

Zhongyi Shui, Honglin Li, Xiaozhong Ji, Ye Zhang, Zijiang Yang, Chenglu Zhu, Yuxuan Sun, Kai Yao, Conghui He, Cheng Tan2026-03-10💻 cs