Exploring Vision-Language Models for Open-Vocabulary Zero-Shot Action Segmentation
Questo lavoro introduce un approccio senza addestramento per la segmentazione temporale delle azioni a vocabolario aperto (OVTAS) sfruttando le capacità zero-shot dei modelli visione-linguaggio, proponendo una pipeline che combina l'adattamento delle embedding e la coerenza temporale, e fornendo la prima analisi sistematica di 14 diversi VLM su benchmark standard.