Beyond Prefixes: Graph-as-Memory Cross-Attention for Knowledge Graph Completion with Large Language Models

Die Arbeit stellt GMT (Graph-as-Memory Tuning) vor, einen neuen Ansatz, der lokale Graphstrukturen als expliziten Speicher in große Sprachmodelle integriert, um durch tiefgreifende, tokenweise Cross-Attention eine überlegene Wissensgraphen-Vervollständigung zu ermöglichen, die herkömmliche Prefix-Methoden in Bezug auf evidenzbasiertes Schlussfolgern deutlich übertrifft.

Ruitong Liu, Boxu Lin, Peize Li + 4 more2026-03-06💻 cs

Narrow Finetuning Leaves Clearly Readable Traces in Activation Differences

Die Studie zeigt, dass eine enge Feinabstimmung von Sprachmodellen deutliche, analysierbare Spuren in den Aktivierungen hinterlässt, die nicht nur zur Rekonstruktion des Trainingsdatensatzes genutzt werden können, sondern auch vor der Gefahr warnen, solche Modelle als realistische Proxy-Modelle für breitere Sicherheits- und Interpretierbarkeitsforschung zu verwenden.

Julian Minder, Clément Dumas, Stewart Slocum + 4 more2026-03-06💻 cs

SceneCOT: Eliciting Grounded Chain-of-Thought Reasoning in 3D Scenes

Die Arbeit stellt das Framework SceneCOT und den dazugehörigen Datensatz SceneCOT-185K vor, um durch eine neuartige, auf multimodalen Expertenmodulen basierende Chain-of-Thought-Methode erstmals eine fundierte, schrittweise menschliche Schlussfolgerung in 3D-Szenen zu ermöglichen und so die Leistung von 3D-LLMs bei der Beantwortung von Fragen mit räumlichem Bezug erheblich zu verbessern.

Xiongkun Linghu, Jiangyong Huang, Ziyu Zhu + 2 more2026-03-06💻 cs

GhostEI-Bench: Do Mobile Agents Resilience to Environmental Injection in Dynamic On-Device Environments?

Die Arbeit stellt GhostEI-Bench vor, den ersten Benchmark, der die Anfälligkeit von mobilen Vision-Language-Agenten für Umgebungs-Injektionsangriffe in dynamischen Android-Umgebungen systematisch bewertet und dabei zeigt, dass aktuelle Modelle durch manipulierte Benutzeroberflächen leicht getäuscht werden können.

Chiyu Chen, Xinhao Song, Yunkai Chai, Yang Yao, Haodong Zhao, Lijun Li, Jie Li, Yan Teng, Gongshen Liu, Yingchun Wang2026-03-06🔒 cs.CR

FMint-SDE: A Multimodal Foundation Model for Accelerating Numerical Simulation of SDEs via Error Correction

Die Arbeit stellt FMint-SDE vor, ein multimodales Basis-Modell auf Transformer-Basis, das durch In-Context-Learning und eine universelle Fehlerkorrektur auf Basis grober numerischer Lösungen eine überlegene Genauigkeit und Effizienz bei der Simulation stochastischer Differentialgleichungen in verschiedenen wissenschaftlichen Domänen ermöglicht.

Jiaxin Yuan, Haizhao Yang, Maria Cameron2026-03-06🔢 math

FLoC: Facility Location-Based Efficient Visual Token Compression for Long Video Understanding

Das Paper stellt FLoC vor, ein trainingsfreies und modellunabhängiges Framework zur effizienten Kompression visueller Tokens in langen Videos mittels der Facility-Location-Funktion, das durch die Auswahl einer kompakten, repräsentativen Teilmenge die Verarbeitungsleistung von Large Multimodal Models bei gleichzeitiger Beibehaltung der Genauigkeit erheblich verbessert.

Janghoon Cho, Jungsoo Lee, Munawar Hayat + 3 more2026-03-06💻 cs

CytoNet: A Foundation Model for the Human Cerebral Cortex at Cellular Resolution

CytoNet ist ein auf 1 Million ungelabelter mikroskopischer Bildpatches trainiertes Fundamentmodell, das die zelluläre Architektur des menschlichen Großhirns in hoher Auflösung analysiert und so eine skalierbare Untersuchung der kortikalen Mikroarchitektur sowie deren Verknüpfung mit der makroskopischen Struktur-Funktions-Organisation ermöglicht.

Christian Schiffer, Zeynep Boztoprak, Jan-Oliver Kropp + 5 more2026-03-06💻 cs

RefAgent: A Multi-agent LLM-based Framework for Automatic Software Refactoring

Die Studie stellt RefAgent vor, ein Multi-Agenten-Framework auf Basis von Large Language Models, das durch spezialisierte Agenten für Planung, Ausführung und Testen Software-Refaktorierungen automatisiert und dabei im Vergleich zu Einzelagenten sowie traditionellen Tools signifikant höhere Erfolgsquoten bei der Code-Qualität und der Beseitigung von Code-Smells erzielt.

Khouloud Oueslati, Maxime Lamothe, Foutse Khomh2026-03-06💻 cs