Position: Stop Anthropomorphizing Intermediate Tokens as Reasoning/Thinking Traces!

In diesem Positionspapier argumentieren die Autoren, dass die Anthropomorphisierung von Zwischenschritten als „Denkspuren" gefährlich ist, da sie das Wesen von Sprachmodellen missversteht, ihre effektive Nutzung behindert und zu fragwürdiger Forschung führt, und fordern die Community auf, diese Metapher zu vermeiden.

Subbarao Kambhampati, Karthik Valmeekam, Siddhant Bhambri, Vardhan Palod, Lucas Saldyt, Kaya Stechly, Soumya Rani Samineni, Durgesh Kalwar, Upasana Biswas2026-03-09🤖 cs.AI

The Malicious Technical Ecosystem: Exposing Limitations in Technical Governance of AI-Generated Non-Consensual Intimate Images of Adults

Diese Studie untersucht aus einer Überlebendenperspektive die Versagen der aktuellen KI-Governance-Maßnahmen, die durch einen „bösartigen technischen Ökosystem" aus Open-Source-Modellen und leicht zugänglicher Software ermöglicht wird, das die Erstellung nicht-einvernehmlicher, KI-generierter intimer Bilder von Erwachsenen erleichtert.

Michelle L. Ding, Harini Suresh2026-03-09🤖 cs.AI

HCT-QA: A Benchmark for Question Answering on Human-Centric Tables

Die Arbeit stellt HCT-QA vor, ein umfassendes Benchmark-Dataset mit tausenden realen und synthetischen menschenzentrierten Tabellen sowie zugehörigen Frage-Antwort-Paaren, um die Leistung von Sprach- und Vision-Sprachmodellen beim Beantworten natürlicher Fragen aus komplexen Tabellendokumenten zu evaluieren und durch Feinabstimmung signifikant zu verbessern.

Mohammad S. Ahmad, Zan A. Naeem, Michaël Aupetit, Ahmed Elmagarmid, Mohamed Eltabakh, Xiaosong Ma, Mourad Ouzzani, Chaoyi Ruan, Hani Al-Sayeh2026-03-09🤖 cs.AI

FourierSpecNet: Neural Collision Operator Approximation Inspired by the Fourier Spectral Method for Solving the Boltzmann Equation

Die Arbeit stellt FourierSpecNet vor, ein hybrides Deep-Learning-Framework, das die Fourier-Spektralmethode nutzt, um den Kollisionsoperator der Boltzmann-Gleichung effizient zu approximieren und dabei rechenintensive traditionelle Solver durch eine resolutionsinvariante, hochgenaue und kostengünstige Alternative für elastische und inelastische Kollisionen ersetzt.

Jae Yong Lee, Gwang Jae Jung, Byung Chan Lim, Hyung Ju Hwang2026-03-09🤖 cs.AI

RM-R1: Reward Modeling as Reasoning

Die Arbeit stellt Reasoning Reward Models (ReasRMs) vor, insbesondere die RM-R1-Familie, die durch die Umformulierung des Reward-Modeling als Reasoning-Aufgabe mit einem Chain-of-Rubrics-Mechanismus und einem zweistufigen Trainingsprozess die Interpretierbarkeit und Leistung von Belohnungsmodellen signifikant steigern.

Xiusi Chen, Gaotang Li, Ziqi Wang, Bowen Jin, Cheng Qian, Yu Wang, Hongru Wang, Yu Zhang, Denghui Zhang, Tong Zhang, Hanghang Tong, Heng Ji2026-03-09🤖 cs.AI

Software Development Life Cycle Perspective: A Survey of Benchmarks for Code Large Language Models and Agents

Diese Arbeit stellt einen umfassenden Überblick über 178 Benchmarks für Code-LLMs und Agenten aus der Perspektive des Softwareentwicklungslebenszyklus (SDLC) bereit, deckt dabei eine signifikante Ungleichgewichtigkeit auf, bei der die Implementierungsphase stark überrepräsentiert ist, während Anforderungsanalyse und Design vernachlässigt werden, und identifiziert zudem kritische Lücken bei Anti-Kontaminationsstrategien sowie zukünftige Forschungsrichtungen.

Kaixin Wang, Tianlin Li, Xiaoyu Zhang, Chong Wang, Weisong Sun, Yang Liu, Aishan Liu, Xianglong Liu, Chao Shen, Bin Shi2026-03-09🤖 cs.AI

ESGenius: Benchmarking LLMs on Environmental, Social, and Governance (ESG) and Sustainability Knowledge

Die Studie stellt ESGenius vor, den ersten umfassenden Benchmark zur Evaluierung von Large Language Models im Bereich ESG und Nachhaltigkeit, der aus einem von Experten validierten Fragenkatalog und einer Kuratierung autoritativer Quellen besteht und zeigt, dass Retrieval-Augmented Generation (RAG) die Leistung dieser Modelle in diesem spezialisierten Fachgebiet signifikant verbessert.

Chaoyue He, Xin Zhou, Yi Wu + 9 more2026-03-09💬 cs.CL

KramaBench: A Benchmark for AI Systems on Data-to-Insight Pipelines over Data Lakes

Die Arbeit stellt KramaBench vor, einen Benchmark mit 104 manuell erstellten Herausforderungen, der zeigt, dass aktuelle KI-Systeme zwar einzelne Datenaufgaben bewältigen können, aber beim Entwurf und der Ausführung funktionsfähiger End-to-End-Pipelines zur Gewinnung von Erkenntnissen aus komplexen Data Lakes erhebliche Schwierigkeiten haben.

Eugenie Lai, Gerardo Vitagliano, Ziyu Zhang, Om Chabra, Sivaprasad Sudhir, Anna Zeng, Anton A. Zabreyko, Chenning Li, Ferdi Kossmann, Jialin Ding, Jun Chen, Markos Markakis, Matthew Russo, Weiyang Wang, Ziniu Wu, Michael J. Cafarella, Lei Cao, Samuel Madden, Tim Kraska2026-03-09🤖 cs.AI

Discerning What Matters: A Multi-Dimensional Assessment of Moral Competence in LLMs

Diese Studie stellt ein neues, multidimensionales Rahmenwerk zur Bewertung moralischer Kompetenz in großen Sprachmodellen vor und zeigt, dass diese zwar in standardisierten Szenarien menschliche Nicht-Experten übertreffen, jedoch in komplexen Situationen, in denen moralisch relevante Informationen aus irrelevanten Details herausgefiltert werden müssen, signifikant schlechter abschneiden als Menschen, was darauf hindeutet, dass bestehende Evaluierungen die Fähigkeiten der KI überschätzen.

Daniel Kilov, Caroline Hendy, Secil Yanik Guyot, Aaron J. Snoswell, Seth Lazar2026-03-09🤖 cs.AI

ContextBench: Modifying Contexts for Targeted Latent Activation

Das Paper stellt ContextBench vor, einen Benchmark zur Bewertung von Methoden, die gezielt latente Merkmale in Sprachmodellen aktivieren, und zeigt, dass eine Kombination aus evolutionärer Prompt-Optimierung, LLM-Unterstützung und Diffusionsmodellen den besten Kompromiss zwischen Wirksamkeit und sprachlicher Flüssigkeit erzielt.

Robert Graham, Edward Stevinson, Leo Richter, Alexander Chia, Joseph Miller, Joseph Isaac Bloom2026-03-09🤖 cs.AI

Sysformer: Safeguarding Frozen Large Language Models with Adaptive System Prompts

Die Arbeit stellt Sysformer vor, ein trainierbares Transformer-Modell, das durch die adaptive Anpassung von Systemprompts in Eingabe-Embedding-Räumen die Sicherheit und Robustheit von eingefrorenen Large Language Models gegenüber schädlichen Eingaben und Jailbreak-Angriffen signifikant verbessert, ohne die Modellparameter selbst nachtrainieren zu müssen.

Kartik Sharma, Yiqiao Jin, Vineeth Rakesh, Yingtong Dou, Menghai Pan, Mahashweta Das, Srijan Kumar2026-03-09🤖 cs.AI

Iterative Quantum Feature Maps

Die Arbeit stellt Iterative Quantum Feature Maps (IQFMs) vor, ein hybrides Quanten-Klassisches Framework, das durch den schichtweisen Aufbau flacher Quanten-Feature-Maps mit klassischen Gewichten und kontrastivem Lernen tiefere Architekturen ohne Optimierung variationaler Parameter ermöglicht, um Rauschen zu reduzieren und die Leistung auf realer Hardware zu verbessern.

Nasa Matsumoto, Quoc Hoan Tran, Koki Chinzei, Yasuhiro Endo, Hirotaka Oshima2026-03-09⚛️ quant-ph

SPARC: Concept-Aligned Sparse Autoencoders for Cross-Model and Cross-Modal Interpretability

Die Arbeit stellt SPARC vor, ein Framework, das durch eine globale TopK-Sparsity-Mechanik und einen Cross-Reconstruction-Loss einen einheitlichen, modals- und architekturübergreifenden latenten Raum für Sparse Autoencoder schafft, um die Interpretierbarkeit und den direkten Vergleich von Konzepten in verschiedenen KI-Modellen zu ermöglichen.

Ali Nasiri-Sarvi, Hassan Rivaz, Mahdi S. Hosseini2026-03-09🤖 cs.AI

ExDD: Explicit Dual Distribution Learning for Surface Defect Detection via Diffusion Synthesis

Das Paper stellt ExDD vor, ein neuartiges Framework zur Erkennung von Oberflächenfehlern, das durch die explizite Modellierung dualer Verteilungen, den Einsatz latenter Diffusionsmodelle zur Generierung synthetischer Defekte und einen benachbarkeitsbewussten Bewertungsmechanismus die Grenzen herkömmlicher Ein-Klassen-Anomalieerkennung überwindet und auf dem KSDD2-Datensatz überlegene Leistung erzielt.

Muhammad Aqeel, Federico Leonardi, Francesco Setti2026-03-09🤖 cs.AI