OTPL-VIO: Robust Visual-Inertial Odometry with Optimal Transport Line Association and Adaptive Uncertainty

Die Arbeit stellt OTPL-VIO vor, ein robustes stereo-visuell-inertiales Odometrie-System, das durch lernfreie Linien-Deskriptoren und eine auf optimaler Transporttheorie basierende Zuordnung sowie eine adaptive Unsicherheitsgewichtung die Genauigkeit und Stabilität in texturarmen und beleuchtungswechselnden Umgebungen verbessert.

Zikun Chen, Wentao Zhao, Yihe Niu, Tianchen Deng, Jingchuan WangWed, 11 Ma💻 cs

When to Lock Attention: Training-Free KV Control in Video Diffusion

Das Paper stellt KV-Lock vor, ein trainingsfreies Framework für DiT-basierte Videodiffusionsmodelle, das durch die dynamische Anpassung der KV-Caching-Rate und der CFG-Stärke auf Basis einer Halluzinationsmetrik gleichzeitig die Hintergrundkonsistenz erhält und die Vordergrundqualität bei Video-Editing-Aufgaben verbessert.

Tianyi Zeng, Jincheng Gao, Tianyi Wang, Zijie Meng, Miao Zhang, Jun Yin, Haoyuan Sun, Junfeng Jiao, Christian Claudel, Junbo Tan, Xueqian WangWed, 11 Ma🤖 cs.AI

DiffWind: Physics-Informed Differentiable Modeling of Wind-Driven Object Dynamics

Die Arbeit stellt DiffWind vor, ein physik-informiertes, differentielles Framework, das mithilfe von 3D-Gaussian-Splatting, dem Material Point Method und der Lattice-Boltzmann-Methode windgetriebene Objektdynamiken aus Videos rekonstruiert und realistische Simulationen sowie Wind-Retargeting ermöglicht.

Yuanhang Lei, Boming Zhao, Zesong Yang, Xingxuan Li, Tao Cheng, Haocheng Peng, Ru Zhang, Yang Yang, Siyuan Huang, Yujun Shen, Ruizhen Hu, Hujun Bao, Zhaopeng CuiWed, 11 Ma💻 cs

AutoViVQA: A Large-Scale Automatically Constructed Dataset for Vietnamese Visual Question Answering

Die Arbeit stellt AutoViVQA vor, einen groß angelegten, automatisch erstellten Datensatz für die visuelle Beantwortung von Fragen auf Vietnamesisch, der Transformer-Architekturen nutzt und verschiedene automatische Evaluierungsmetriken im multilingualen Kontext systematisch vergleicht.

Nguyen Anh Tuong, Phan Ba Duc, Nguyen Trung Quoc, Tran Dac Thinh, Dang Duy Lan, Nguyen Quoc Thinh, Tung LeWed, 11 Ma🤖 cs.AI

DRIFT: Dual-Representation Inter-Fusion Transformer for Automated Driving Perception with 4D Radar Point Clouds

Die Arbeit stellt DRIFT vor, einen Dual-Representation Inter-Fusion Transformer, der durch eine parallele Architektur aus Punkt- und Säulenpfaden lokale sowie globale Kontextinformationen aus 4D-Radarpunktwolken effektiv fusioniert und damit die Leistung bei der Objekterkennung und Straßenabschätzung für automatisiertes Fahren signifikant verbessert.

Siqi Pei, Andras Palffy, Dariu M. GavrilaWed, 11 Ma💻 cs

TemporalDoRA: Temporal PEFT for Robust Surgical Video Question Answering

Die Arbeit stellt TemporalDoRA vor, eine parametereffiziente Feinabstimmungsmethode für chirurgische Video-Frage-Antwort-Systeme, die durch die Integration von zeitlicher Aufmerksamkeit in den Low-Rank-Adaptionspfad die Robustheit gegenüber linguistischen Variationen verbessert, und führt zudem den neuen REAL-Colon-VQA-Datensatz ein.

Luca Carlini, Chiara Lena, Cesare Hassan, Danail Stoyanov, Elena De Momi, Sophia Bano, Mobarak I. HoqueWed, 11 Ma💻 cs

TriFusion-SR: Joint Tri-Modal Medical Image Fusion and SR

Das Paper stellt TriFusion-SR vor, ein wellenlettbasiertes, konditioniertes Diffusionsframework, das die gemeinsame Fusion und Super-Resolution von tri-modalen medizinischen Bildern ermöglicht, indem es Frequenzband-Zerlegung und adaptive räumlich-frequente Fusion nutzt, um Artefakte zu reduzieren und die Bildqualität signifikant zu verbessern.

Fayaz Ali Dharejo, Sharif S. M. A., Aiman Khalil, Nachiket Chaudhary, Rizwan Ali Naqvi, Radu TimofteWed, 11 Ma💻 cs

FrameDiT: Diffusion Transformer with Frame-Level Matrix Attention for Efficient Video Generation

Die Arbeit stellt FrameDiT vor, ein effizientes Video-Generierungsmodell, das eine neuartige Matrix-Aufmerksamkeit auf Frame-Ebene nutzt, um den Kompromiss zwischen rechenintensiver globaler 3D-Aufmerksamkeit und lokaler Faktor-Aufmerksamkeit zu überwinden und dabei sowohl zeitliche Kohärenz als auch hohe Bildqualität zu erreichen.

Minh Khoa Le, Kien Do, Duc Thanh Nguyen, Truyen TranWed, 11 Ma💻 cs

EXPLORE-Bench: Egocentric Scene Prediction with Long-Horizon Reasoning

Die Arbeit stellt EXPLORE-Bench vor, einen neuen Benchmark auf Basis realer Egocentric-Videos, der zeigt, dass multimodale Sprachmodelle bei der Vorhersage langfristiger physischer Konsequenzen aus Ego-Perspektive erhebliche Schwierigkeiten haben, während eine schrittweise Zerlegung der Aktionen die Leistung zwar verbessert, aber mit hohem Rechenaufwand einhergeht.

Chengjun Yu, Xuhan Zhu, Chaoqun Du, Pengfei Yu, Wei Zhai, Yang Cao, Zheng-Jun ZhaWed, 11 Ma🤖 cs.AI

FetalAgents: A Multi-Agent System for Fetal Ultrasound Image and Video Analysis

Die Studie stellt FetalAgents vor, ein neuartiges Multi-Agenten-System, das durch die dynamische Koordination spezialisierter Vision-Experten die Analyse von fetalen Ultraschallbildern und -videos sowie die automatische Generierung strukturierter klinischer Berichte verbessert und dabei sowohl die Genauigkeit als auch die Workflow-Integration übertrifft.

Xiaotian Hu, Junwei Huang, Mingxuan Liu, Kasidit Anmahapong, Yifei Chen, Yitong Luo, Yiming Huang, Xuguang Bai, Zihan Li, Yi Liao, Haibo Qu, Qiyuan TianWed, 11 Ma💻 cs

Let's Reward Step-by-Step: Step-Aware Contrastive Alignment for Vision-Language Navigation in Continuous Environments

Die Arbeit stellt SACA (Step-Aware Contrastive Alignment) vor, ein Framework zur Verbesserung der Vision-Language Navigation in kontinuierlichen Umgebungen, das durch schrittweise, wahrnehmungsgegründete Bewertung und dynamisches Batch-Management die Probleme von SFT-bedingten kumulativen Fehlern und RFT-bedingten spärlichen Belohnungen überwindet und damit neue State-of-the-Art-Ergebnisse erzielt.

Haoyuan Li, Rui Liu, Hehe Fan, Yi YangWed, 11 Ma💻 cs