Are Multimodal LLMs Ready for Surveillance? A Reality Check on Zero-Shot Anomaly Detection in the Wild

Diese Studie zeigt, dass multimodale große Sprachmodelle im Zero-Shot-Setting für die Videoanomalieerkennung zwar präzise, aber aufgrund einer starken Verzerrung zugunsten normaler Ereignisse unzureichend zuverlässig sind, wobei spezifische Anweisungen die Leistung zwar signifikant verbessern können, die Erkennungsrate jedoch weiterhin eine kritische Schwachstelle bleibt.

Shanle Yao, Armin Danesh Pazho, Narges Rashvand + 1 more2026-03-06💻 cs

Evaluating GPT-5 as a Multimodal Clinical Reasoner: A Landscape Commentary

Diese Landschaftskommentar-Studie zeigt, dass die GPT-5-Familie im Vergleich zu GPT-4o signifikante Fortschritte bei der multimodalen klinischen Reasoning-Aufgabe erzielt, insbesondere durch die Verknüpfung von Text und Bild, jedoch in hochspezialisierten, wahrnehmungskritischen Bereichen wie der Neuroradiologie und Mammographie noch nicht die Genauigkeit von domänenspezifischen Modellen erreicht.

Alexandru Florea, Shansong Wang, Mingzhe Hu + 5 more2026-03-06💻 cs

Privacy-Aware Camera 2.0 Technical Report

Dieser technische Bericht stellt ein neues, datenschutzfreundliches Wahrnehmungsframework namens „Privacy-Aware Camera 2.0" vor, das mithilfe des AI-Flow-Paradigmas und einer Edge-Cloud-Architektur Rohbilder am Rand in irreversible abstrakte Merkmalsvektoren umwandelt, um gleichzeitig den Datenschutz zu gewährleisten und eine semantische Verhaltensanalyse sowie eine visuelle Rekonstruktion über eine „dynamische Kontur"-Sprache in der Cloud zu ermöglichen.

Huan Song, Shuyu Tian, Ting Long + 5 more2026-03-06💻 cs

RMK RetinaNet: Rotated Multi-Kernel RetinaNet for Robust Oriented Object Detection in Remote Sensing Imagery

Die vorgestellte Arbeit stellt RMK RetinaNet vor, einen robusten Detektor für orientierte Objekte in Fernerkundungsbildern, der durch einen Multi-Scale-Kernel-Block, eine Multi-Directional-Contextual-Anchor-Attention-Mechanismus, einen Bottom-up-Pfad und ein Euler-Winkel-Kodierungsmodul die Herausforderungen der adaptiven Rezeptivfeldnutzung, der Merkmalsfusion und der Winkelregression adressiert.

Huiran Sun2026-03-06💻 cs

Guiding Diffusion-based Reconstruction with Contrastive Signals for Balanced Visual Representation

Diese Arbeit stellt die Diffusion Contrastive Reconstruction (DCR) vor, eine Methode, die kontrastive Signale aus rekonstruierten Bildern in den Diffusionsprozess integriert, um die diskriminative und detailperzeptive Fähigkeit von CLIP-Visual-Encodern zu verbessern und so eine ausgewogenere visuelle Repräsentation für nachgelagerte Aufgaben zu erreichen.

Boyu Han, Qianqian Xu, Shilong Bao + 4 more2026-03-06💻 cs

Meta-D: Metadata-Aware Architectures for Brain Tumor Analysis and Missing-Modality Segmentation

Die Studie stellt Meta-D vor, eine Architektur, die kategorische Scanner-Metadaten wie MRI-Sequenz und Ebenenorientierung nutzt, um die Feature-Extraktion zu steuern, was sowohl die 2D-Tumorerkennung als auch die 3D-Segmentierung bei fehlenden Modalitäten durch stabilisierte Repräsentationen und effizientere Aufmerksamkeitsmechanismen signifikant verbessert.

SangHyuk Kim, Daniel Haehn, Sumientra Rampersad2026-03-06💻 cs

Revisiting Shape from Polarization in the Era of Vision Foundation Models

Die Studie zeigt, dass ein leichtgewichtiges Modell, das auf einem hochwertigen, polarisationsbasierten Datensatz mit realen 3D-Objekten trainiert und durch DINOv3-Priors sowie sensorbewusste Daten-Augmentierung verbessert wurde, selbst mit deutlich weniger Daten und Parametern RGB-only-Vision-Foundation-Modelle bei der Schätzung von Oberflächennormalen übertrifft, indem es die zuvor bestehenden Domänenlücken schließt.

Chenhao Li, Taishi Ono, Takeshi Uemori + 1 more2026-03-06💻 cs

Multi-Paradigm Collaborative Adversarial Attack Against Multi-Modal Large Language Models

Die Arbeit stellt MPCAttack vor, ein neuartiges Framework für Multi-Paradigma-Kollaborative Angriffe, das durch die gemeinsame Optimierung von visuellen und textuellen Merkmalsrepräsentationen die Transferierbarkeit adversarieller Beispiele gegen Multi-Modal Large Language Models signifikant verbessert und dabei bestehende State-of-the-Art-Methoden übertrifft.

Yuanbo Li, Tianyang Xu, Cong Hu + 3 more2026-03-06💻 cs