From Perception to Cognition: How Latency Affects Interaction Fluency and Social Presence in VR Conferencing

Diese Studie untersucht mittels subjektiver Experimente, wie sich End-to-End-Latenz in VR-Konferenzen im Vergleich zu herkömmlicher Videokonferenzierung auf die wahrgenommene Interaktionsflüssigkeit und das soziale Präsenzempfinden auswirkt, um Erkenntnisse für die Optimierung immersiver virtueller Umgebungen zu gewinnen.

Jiarun Song, Ninghao Wan, FuZheng Yang, Weisi LinWed, 11 Ma💻 cs

MORE-R1: Guiding LVLM for Multimodal Object-Entity Relation Extraction via Stepwise Reasoning with Reinforcement Learning

Die Arbeit stellt MORE-R1 vor, ein neues Modell, das Large Vision-Language Models durch einen zweistufigen Trainingsprozess mit überwachtem Feinabstimmen und verstärkendem Lernen für eine schrittweise, transparente und skalierbare multimodale Extraktion von Objekt-Entitäts-Beziehungen optimiert.

Xiang Yuan, Xu Chu, Xinrong Chen, Haochen Li, Zonghong Dai, Hongcheng Fan, Xiaoyue Yuan, Weiping Li, Tong MoWed, 11 Ma💻 cs

Dynamic Multimodal Expression Generation for LLM-Driven Pedagogical Agents: From User Experience Perspective

Diese Studie stellt eine von einem Large Language Model (LLM) gesteuerte Methode zur dynamischen multimodalen Ausdrucks生成 vor, die in virtuellen Lernumgebungen semantisch abgestimmte Sprache und Gesten erzeugt und nachweislich die Lernwirksamkeit, das Engagement sowie das menschliche Erscheinungsbild von pädagogischen Agenten verbessert.

Ninghao Wan, Jiarun Song, Fuzheng YangWed, 11 Ma💻 cs

Memory-Guided View Refinement for Dynamic Human-in-the-loop EQA

Die Autoren stellen den DynHiL-EQA-Datensatz und das trainingfreie Framework DIVRR vor, um die Herausforderungen dynamischer, von Menschen bevölkerter Umgebungen beim Embodied Question Answering durch eine relevante Sichtverfeinerung und selektive Speicherauswahl zu bewältigen und dabei sowohl die Robustheit als auch die Inferenzeffizienz zu steigern.

Xin Lu, Rui Li, Xun Huang, Weixin Li, Chuanqing Zhuang, Jiayuan Li, Zhengda Lu, Jun Xiao, Yunhong WangWed, 11 Ma💻 cs

Multi-Domain Audio Question Answering Benchmark Toward Acoustic Content Reasoning

Dieses Paper stellt Task 5 des DCASE 2025 Challenges vor, ein mehrdomäniges Benchmark für Audio-Frage-Antwort-Aufgaben, das darauf abzielt, die akustische reasoning-Fähigkeit von Audio-Sprachmodellen durch die Evaluierung in Bereichen wie Bioakustik und komplexen Klanglandschaften zu verbessern.

Chao-Han Huck Yang, Sreyan Ghosh, Qing Wang, Jaeyeon Kim, Hengyi Hong, Sonal Kumar, Guirui Zhong, Zhifeng Kong, S Sakshi, Vaibhavi Lokegaonkar, Oriol Nieto, Ramani Duraiswami, Dinesh Manocha, Gunhee Kim, Jun Du, Rafael Valle, Bryan CatanzaroTue, 10 Ma💬 cs.CL

Emotion Collider: Dual Hyperbolic Mirror Manifolds for Sentiment Recovery via Anti Emotion Reflection

Die Arbeit stellt EC-Net vor, ein hyperbolisches Hypergraph-Framework, das durch die Modellierung von Modalitätshierarchien in Poincaré-Kugel-Einbettungen und bidirektionale Hypergraph-Nachrichtenübertragung robuste und genaue multimodale Emotionserkennung auch bei verrauschten oder unvollständigen Daten ermöglicht.

Rong Fu, Ziming Wang, Shuo Yin, Haiyun Wei, Kun Liu, Xianda Li, Zeli Su, Simon FongTue, 10 Ma🤖 cs.LG

TimeSpot: Benchmarking Geo-Temporal Understanding in Vision-Language Models in Real-World Settings

Die Arbeit stellt TimeSpot vor, einen Benchmark mit 1.455 Bildern aus 80 Ländern, der zeigt, dass aktuelle Vision-Language-Modelle bei der rein visuellen Inferenz von geografischen und zeitlichen Merkmalen sowie bei der räumlich-zeitlichen Schlussfolgerung in realen Szenarien erhebliche Defizite aufweisen.

Azmine Toushik Wasi, Shahriyar Zaman Ridoy, Koushik Ahamed Tonmoy, Kinga Tshering, S. M. Muhtasimul Hasan, Wahid Faisal, Tasnim Mohiuddin, Md Rizwan ParvezTue, 10 Ma💬 cs.CL

CONSTANT: Towards High-Quality One-Shot Handwriting Generation with Patch Contrastive Enhancement and Style-Aware Quantization

Das Paper stellt CONSTANT vor, ein neuartiges Diffusionsmodell für die One-Shot-Handschreibengenerierung, das durch Style-Aware Quantization und patch-basierte kontrastive Lernverfahren die Herausforderung meistert, komplexe und diverse Handschriftstile aus nur einem Referenzbild realistisch und detailliert nachzubilden.

Anh-Duy Le, Van-Linh Pham, Thanh-Nam Vo, Xuan Toan Mai, Tuan-Anh TranTue, 10 Ma💻 cs

Controllable Complex Human Motion Video Generation via Text-to-Skeleton Cascades

Die Arbeit stellt ein zweistufiges Framework vor, das durch die Generierung von Skelettsequenzen aus Text und deren nachfolgende Umwandlung in Videos mittels eines pose-gesteuerten Diffusionsmodells sowie die Bereitstellung eines synthetischen Datensatzes die Erzeugung von Videos komplexer menschlicher Bewegungen wie Akrobatik und Kampfkunst verbessert.

Ashkan Taghipour, Morteza Ghahremani, Zinuo Li, Hamid Laga, Farid Boussaid, Mohammed BennamounTue, 10 Ma💻 cs