GTR-Turbo: Merged Checkpoint is Secretly a Free Teacher for Agentic VLM Training

Das Paper stellt GTR-Turbo vor, eine effiziente Methode zum Training agenter Vision-Language-Modelle, die durch das Zusammenführen von Checkpoints während des Reinforcement-Learning-Prozesses einen kostenlosen Lehrer nutzt, um die Abhängigkeit von teuren Modellen zu beseitigen und gleichzeitig die Genauigkeit zu steigern sowie Trainingszeit und Kosten zu senken.

Tong Wei, Yijun Yang, Changhao Zhang, Junliang Xing, Yuanchun Shi, Zongqing Lu, Deheng Ye2026-03-12🤖 cs.AI

Pretrained battery transformer (PBT): A foundation model for universal battery life prediction

Die Studie stellt den „Pretrained Battery Transformer" (PBT) als ersten universellen Grundmodell für die Vorhersage der Batterielebensdauer vor, der durch den Einsatz von wissenscodierten Mixture-of-Experts-Schichten auf heterogenen Daten trainiert wird und damit den aktuellen Stand der Technik bei der Lebensdauervorhersage verschiedener Batterietypen deutlich übertrifft.

Ruifeng Tan, Weixiang Hong, Jia Li, Jiaqiang Huang, Tong-Yi Zhang2026-03-12🤖 cs.LG

Enhancing Tree Species Classification: Insights from YOLOv8 and Explainable AI Applied to TLS Point Cloud Projections

Diese Studie zeigt, dass ein mit YOLOv8 trainiertes Modell zur Klassifizierung von sieben europäischen Baumarten mittels TLS-Punktwolken eine hohe Genauigkeit von 96 % erreicht und durch den Einsatz von Finer-CAM nachweislich auf strukturelle Merkmale wie Kronen und Stämme für die interpretierbare Entscheidungsfindung zurückgreift.

Adrian Straker, Paul Magdon, Marco Zullich, Maximilian Freudenberg, Christoph Kleinn, Johannes Breidenbach, Stefano Puliti, Nils Noelke2026-03-12🤖 cs.AI

Geometric Scaling of Bayesian Inference in LLMs

Die Studie zeigt, dass moderne Sprachmodelle die geometrische Struktur aufweisen, die für die bayessche Inferenz notwendig ist, und dass eine gezielte Manipulation dieser Struktur die Unsicherheitsrepräsentation stört, ohne jedoch eine proportionale Verschlechterung des bayesschen Verhaltens zu verursachen, was darauf hindeutet, dass diese Geometrie eher ein privilegiertes Lesesystem als ein einzelner rechnerischer Engpass ist.

Naman Agarwal, Siddhartha R. Dalal, Vishal Misra2026-03-12🤖 cs.LG

Over-Searching in Search-Augmented Large Language Models

Diese Arbeit untersucht das Problem des übermäßigen Suchens in suchaugmentierten Large Language Models, führt mit „Tokens Per Correctness" eine neue Metrik zur Bewertung des Kosten-Nutzen-Verhältnisses ein und stellt den OverSearchQA-Datensatz sowie Lösungsansätze vor, um die Effizienz und Genauigkeit dieser Systeme zu verbessern.

Roy Xie, Deepak Gopinath, David Qiu, Dong Lin, Haitian Sun, Saloni Potdar, Bhuwan Dhingra2026-03-12🤖 cs.LG

Beyond Max Tokens: Stealthy Resource Amplification via Tool Calling Chains in LLM Agents

Diese Arbeit stellt einen neuen, schwer erkennbaren Denial-of-Service-Angriff auf LLM-Agenten vor, der durch manipulierte Tool-Aufrufketten im Rahmen des Model Context Protocol (MCP) die Kosten und den Ressourcenverbrauch um ein Vielfaches erhöht, ohne dass herkömmliche Filter dies erkennen.

Kaiyu Zhou, Yongsen Zheng, Yicheng He, Meng Xue, Xueluan Gong, Yuji Wang, Xuanye Zhang, Kwok-Yan Lam2026-03-12🤖 cs.AI

Evaluating Long-Horizon Memory for Multi-Party Collaborative Dialogues

Die Arbeit stellt EverMemBench vor, den ersten Benchmark zur Evaluierung des Langzeitgedächtnisses von LLMs in realistischen, mehrparteilichen Kollaborationsszenarien, der fundamentale Defizite aktueller Systeme bei der Attribution, zeitlichen Reasoning und kontextuellen Erinnerungsauffrischung aufdeckt.

Chuanrui Hu, Tong Li, Xingze Gao, Hongda Chen, Yi Bai, Dannong Xu, Tianwei Lin, Xiaohong Li, Yunyun Han, Jian Pei, Yafeng Deng2026-03-12💬 cs.CL

Moving On, Even When You're Broken: Fail-Active Trajectory Generation via Diffusion Policies Conditioned on Embodiment and Task

Die Arbeit stellt DEFT vor, einen auf Diffusionsmodellen basierenden Trajektoriengenerator, der Robotern ermöglicht, Aufgaben auch bei beliebigen Aktuatorausfällen erfolgreich abzuschließen und dabei klassische Methoden in Simulation und Realwelt deutlich zu übertreffen.

Gilberto G. Briscoe-Martinez, Yaashia Gautam, Rahul Shetty, Anuj Pasricha, Marco M. Nicotra, Alessandro Roncone2026-03-12🤖 cs.AI

DMS2F-HAD: A Dual-branch Mamba-based Spatial-Spectral Fusion Network for Hyperspectral Anomaly Detection

Die Arbeit stellt DMS2F-HAD vor, ein neuartiges dual-branch Mamba-basiertes Netzwerk zur hyperspektralen Anomalieerkennung, das durch die effiziente Fusion räumlicher und spektraler Merkmale sowohl einen neuen State-of-the-Art bei der Genauigkeit (98,78 % AUC) als auch eine signifikant höhere Inferenzgeschwindigkeit im Vergleich zu bestehenden Deep-Learning-Methoden erreicht.

Aayushma Pant, Lakpa Tamang, Tsz-Kwan Lee + 1 more2026-03-12🤖 cs.AI

Long Chain-of-Thought Compression via Fine-Grained Group Policy Optimization

Die Arbeit stellt Fine-grained Group Policy Optimization (FGO) vor, einen Reinforcement-Learning-Algorithmus, der als effiziente Weiterentwicklung von GRPO übermäßige Chain-of-Thought-Verläufe in großen Sprachmodellen komprimiert und dabei gleichzeitig die Probleme der ineffizienten Datennutzung sowie des Entropie-Kollapses löst, ohne die Leistungsfähigkeit zu beeinträchtigen.

Xinchen Han, Hossam Afifi, Michel Marot, Xilu Wang, Lu Yin2026-03-12🤖 cs.LG

UniWeTok: An Unified Binary Tokenizer with Codebook Size 2128\mathit{2^{128}} for Unified Multimodal Large Language Model

Die Arbeit stellt UniWeTok vor, einen einheitlichen binären Tokenizer mit einem riesigen Codebook der Größe $2^{128}$ und einem innovativen Trainingsframework, der in Unified Multimodal Large Language Models sowohl hochpräzise Bildrekonstruktion als auch überlegene Generationsfähigkeiten bei deutlich geringerem Rechenaufwand ermöglicht.

Shaobin Zhuang, Yuang Ai, Jiaming Han, Weijia Mao, Xiaohui Li, Fangyikang Wang, Xiao Wang, Yan Li, Shanchuan Lin, Kun Xu, Zhenheng Yang, Huaibo Huang, Xiangyu Yue, Hao Chen, Yali Wang2026-03-12🤖 cs.AI

GOT-JEPA: Generic Object Tracking with Model Adaptation and Occlusion Handling using Joint-Embedding Predictive Architecture

Die Arbeit stellt GOT-JEPA vor, ein Framework zur Vorhersage von Tracking-Modellen mittels Joint-Embedding Predictive Architecture, das in Kombination mit dem OccuSolver-Modul die Generalisierungsfähigkeit und die Verarbeitungsleistung bei Verdeckungen in der generischen Objektverfolgung signifikant verbessert.

Shih-Fang Chen, Jun-Cheng Chen, I-Hong Jhuo, Yen-Yu Lin2026-03-12🤖 cs.AI