See, Plan, Rewind: Progress-Aware Vision-Language-Action Models for Robust Robotic Manipulation

Das Paper stellt SPR (See, Plan, Rewind) vor, einen fortschrittsbewussten Vision-Language-Action-Rahmen, der durch dynamische Unterteilung von Aufgaben in räumliche Teilziele und einen geschlossenen Regelkreis aus Beobachtung, Planung und Rücksetzfunktion bei Fehlern die Robustheit und Generalisierung robotischer Manipulation signifikant verbessert.

Tingjun Dai, Mingfei Han, Tingwen Du, Zhiheng Liu, Zhihui Li, Salman Khan, Jun Yu, Xiaojun Chang2026-03-11💻 cs

IntroSVG: Learning from Rendering Feedback for Text-to-SVG Generation via an Introspective Generator-Critic Framework

Die Arbeit stellt IntroSVG vor, einen introspektiven Generator-Kritiker-Rahmen, der durch Supervised Fine-Tuning und Direct Preference Optimization visuelle Rückmeldungen in den Generierungsprozess integriert, um die Qualität von Text-zu-SVG-Generierung durch einen iterativen „Erstellen-Überprüfen-Verfeinern"-Zyklus signifikant zu verbessern.

Feiyu Wang, Jiayuan Yang, Zhiyuan Zhao, Da Zhang, Bingyu Li, Peng Liu, Junyu Gao2026-03-11💻 cs

SpaceSense-Bench: A Large-Scale Multi-Modal Benchmark for Spacecraft Perception and Pose Estimation

Die Arbeit stellt SpaceSense-Bench vor, ein groß angelegtes, multimodales Benchmark-Dataset mit 136 Satellitenmodellen und präzisen Ground-Truth-Annotationen, das zur Überwindung von Datenmängeln in der Weltraumwahrnehmung dient und zeigt, dass eine Skalierung der Trainingsdaten entscheidend für die Generalisierung auf unbekannte Ziele ist.

Aodi Wu, Jianhong Zuo, Zeyuan Zhao, Xubo Luo, Ruisuo Wang, Xue Wan2026-03-11🤖 cs.AI

OddGridBench: Exposing the Lack of Fine-Grained Visual Discrepancy Sensitivity in Multimodal Large Language Models

Die Arbeit stellt OddGridBench vor, einen Benchmark zur Bewertung der Sensitivität multimodaler großer Sprachmodelle für feingranulare visuelle Diskrepanzen, und schlägt mit OddGrid-GRPO ein verstärkendes Lernframework vor, das durch Curriculum-Learning und abstandsabhängige Belohnungen die Wahrnehmungsfähigkeit dieser Modelle signifikant verbessert.

Tengjin Weng, Wenhao Jiang, Jingyi Wang, Ming Li, Lin Ma, Zhong Ming2026-03-11💻 cs

Beyond Scaling: Assessing Strategic Reasoning and Rapid Decision-Making Capability of LLMs in Zero-sum Environments

Die Arbeit stellt den STAR-Benchmark vor, ein Multi-Agenten-Evaluierungsframework für Nullsummenspiele, das zeigt, dass strategische Intelligenz in dynamischen Umgebungen nicht nur von der Tiefe des logischen Denkens, sondern entscheidend von der Fähigkeit abhängt, Pläne auch unter Zeitdruck schnell umzusetzen, wobei schnellere Modelle in Echtzeitszenarien oft leistungsfähiger sind als rein reasoning-intensive Modelle.

Yang Li, Xing Chen, Yutao Liu, Gege Qi, Yanxian BI, Zizhe Wang, Yunjian Zhang, Yao Zhu2026-03-11🤖 cs.AI

Evidential Perfusion Physics-Informed Neural Networks with Residual Uncertainty Quantification

Die Studie stellt EPPINN vor, einen evidenzbasierten physikinformierten neuronalen Netzwerk-Ansatz zur zuverlässigen und unsicherheitsbewussten Schätzung von Perfusionsparametern in der CT-Perfusionsbildgebung bei Schlaganfällen, der durch die Modellierung von physikalischen Restfehlern mittels Normal-Inverse-Gamma-Verteilungen sowohl die Genauigkeit als auch die Zuverlässigkeit der Diagnose verbessert.

Junhyeok Lee, Minseo Choi, Han Jang, Young Hun Jeon, Heeseong Eum, Joon Jang, Chul-Ho Sohn, Kyu Sung Choi2026-03-11💻 cs

M3GCLR: Multi-View Mini-Max Infinite Skeleton-Data Game Contrastive Learning For Skeleton-Based Action Recognition

Die Arbeit stellt M3GCLR vor, ein spieltheoretisches kontrastives Lernframework für die skelettbasierte Aktionserkennung, das durch die Modellierung einer unendlichen Skelettdaten-Spieltheorie, adversarische Multi-View-Augmentierung und einen dualen Verlust-Optimierer die Grenzen bestehender selbstüberwachter Methoden überwindet und state-of-the-art-Ergebnisse auf gängigen Datensätzen erzielt.

Yanshan Li, Ke Ma, Miaomiao Wei, Linhui Dai2026-03-11🤖 cs.AI

EventVGGT: Exploring Cross-Modal Distillation for Consistent Event-based Depth Estimation

Die Arbeit stellt EventVGGT vor, ein neuartiges Framework, das durch die erstmalige distillation von räumlich-zeitlichen und multi-view geometrischen Priors aus dem Visual Geometry Grounded Transformer (VGGT) in den Event-Bereich eine konsistente und präzise ereignisbasierte Tiefenschätzung ermöglicht, indem es die inhärente zeitliche Kontinuität von Event-Daten explizit modelliert.

Yinrui Ren, Jinjing Zhu, Kanghao Chen, Zhuoxiao Li, Jing Ou, Zidong Cao, Tongyan Hua, Peilun Shi, Yingchun Fu, Wufan Zhao, Hui Xiong2026-03-11💻 cs

ICDAR 2025 Competition on End-to-End Document Image Machine Translation Towards Complex Layouts

Dieser Bericht stellt den ICDAR-2025-Wettbewerb zur End-to-End-Übersetzung von Dokumentenbildern mit komplexen Layouts vor, bei dem 69 Teams zwei Tracks (OCR-frei und OCR-basiert) für kleine und große Modelle bestritten haben, wobei die Ergebnisse zeigen, dass große Modelle einen vielversprechenden neuen Paradigmenwechsel für diese Aufgabe darstellen.

Yaping Zhang, Yupu Liang, Zhiyang Zhang, Zhiyuan Chen, Lu Xiang, Yang Zhao, Yu Zhou, Chengqing Zong2026-03-11🤖 cs.AI