TherA: Thermal-Aware Visual-Language Prompting for Controllable RGB-to-Thermal Infrared Translation

Il paper presenta TherA, un framework di traduzione controllabile da RGB a infrarossi termici che, sfruttando un modello visivo-linguistico per generare embedding termicamente consapevoli e un traduttore basato su diffusione latente, supera i limiti degli approcci esistenti producendo immagini termiche realistiche e fisicamente plausibili con un controllo fine su condizioni ambientali e stati degli oggetti.

Dong-Guw Lee, Tai Hyoung Rhee, Hyunsoo Jang + 3 more2026-02-26💻 cs

Exploiting Label-Independent Regularization from Spatial Dependencies for Whole Slide Image Analysis

Il paper propone un framework MIL regolarizzato spazialmente che sfrutta le relazioni spaziali intrinseche tra le patch delle immagini intere di vetrino come segnali di regolarizzazione indipendenti dalle etichette, superando così le limitazioni della supervisione scarsa e migliorando significativamente le prestazioni rispetto agli stati dell'arte.

Weiyi Wu, Xinwen Xu, Chongyang Gao + 3 more2026-02-26💻 cs

Towards Controllable Video Synthesis of Routine and Rare OR Events

Questo lavoro presenta un framework di sintesi video basato su diffusione che, trasformando le scene chirurgiche in rappresentazioni geometriche astratte, permette di generare in modo controllato eventi rari e critici per la sicurezza in sala operatoria, superando le limitazioni dei dataset reali e supportando lo sviluppo di modelli di intelligenza artificiale per il rilevamento di violazioni del campo sterile.

Dominik Schneider, Lalithkumar Seenivasan, Sampath Rapuri + 8 more2026-02-26⚡ eess

MMLoP: Multi-Modal Low-Rank Prompting for Efficient Vision-Language Adaptation

Il paper propone MMLoP, un framework di prompting multi-modale a basso rango che adatta efficientemente i modelli visione-linguaggio come CLIP a compiti downstream con soli 11.5K parametri, ottenendo prestazioni superiori rispetto ai metodi esistenti grazie a tecniche di regolarizzazione, correzione della deriva e allineamento cross-modale.

Sajjad Ghiasvand, Haniyeh Ehsani Oskouie, Mahnoosh Alizadeh + 1 more2026-02-26🤖 cs.LG

Exploring Vision-Language Models for Open-Vocabulary Zero-Shot Action Segmentation

Questo lavoro introduce un approccio senza addestramento per la segmentazione temporale delle azioni a vocabolario aperto (OVTAS) sfruttando le capacità zero-shot dei modelli visione-linguaggio, proponendo una pipeline che combina l'adattamento delle embedding e la coerenza temporale, e fornendo la prima analisi sistematica di 14 diversi VLM su benchmark standard.

Asim Unmesh, Kaki Ramesh, Mayank Patel + 2 more2026-02-26💻 cs

Automating Timed Up and Go Phase Segmentation and Gait Analysis via the tugturn Markerless 3D Pipeline

Il documento presenta *tugturn.py*, un flusso di lavoro Python open-source per l'analisi biomeccanica 3D senza marcatori del test Timed Up and Go, che automatizza la segmentazione delle fasi, il rilevamento degli eventi del passo e il calcolo di metriche di stabilità dinamica, garantendo risultati riproducibili attraverso report HTML e tabelle CSV.

Abel Gonçalves Chinaglia, Guilherme Manna Cesar, Paulo Roberto Pereira Santiago2026-02-26💻 cs

Adversarial Robustness of Deep Learning-Based Thyroid Nodule Segmentation in Ultrasound

Lo studio valuta la robustità di un modello di segmentazione basato su deep learning per i noduli tiroidei agli attacchi avversariali nell'ecografia, dimostrando che mentre le perturbazioni spaziali possono essere parzialmente mitigate tramite pre-elaborazione dell'input, quelle nel dominio della frequenza rimangono efficaci e non mitigabili dalle difese testate.

Nicholas Dietrich, David McShannon2026-02-26🤖 cs.AI

Unified Unsupervised and Sparsely-Supervised 3D Object Detection by Semantic Pseudo-Labeling and Prototype Learning

Il paper propone SPL, un quadro di addestramento unificato per il rilevamento di oggetti 3D senza supervisione o con supervisione scarsa che combina etichettatura pseudo-semantica e apprendimento prototipale per generare pseudo-etichette di alta qualità e stabilizzare l'apprendimento delle caratteristiche, superando così le prestazioni dello stato dell'arte sui dataset KITTI e nuScenes.

Yushen He2026-02-26💻 cs