ORMOT: A Dataset and Framework for Omnidirectional Referring Multi-Object Tracking
Deze paper introduceert ORMOT, een nieuwe taak voor het volgen van meerdere objecten op basis van taalbeschrijvingen in omnidirectionele beelden, en presenteert het bijbehorende ORSet-dataset en het ORTrack-framework om de beperkingen van het gezichtsveld in traditionele camera's te overwinnen.