Credibility Governance: A Social Mechanism for Collective Self-Correction under Weak Truth Signals

Die Studie stellt „Credibility Governance" als einen sozialen Mechanismus vor, der durch die dynamische Neuverteilung von Einfluss basierend auf der Übereinstimmung mit öffentlicher Evidenz kollektive Selbstkorrektur in Online-Plattformen ermöglicht und so die Robustheit gegenüber Fehlinformationen und strategischer Manipulation im Vergleich zu herkömmlichen Abstimmungs- oder Kapitalgewichtungssystemen signifikant verbessert.

Wanying He, Yanxi Lin, Ziheng Zhou + 5 more2026-03-04💬 cs.CL

Evaluating Cross-Modal Reasoning Ability and Problem Characteristics with Multimodal Item Response Theory

Die Studie stellt M3IRT vor, ein multimodales und multidimensionales Item-Response-Theory-Framework, das die Fähigkeit von Multimodal Large Language Models zur cross-modalen Reasoning präziser bewertet, indem es Shortcut-Fragen identifiziert und eliminiert, um zuverlässigere Benchmarks mit geringerem Rechenaufwand zu ermöglichen.

Shunki Uebayashi, Kento Masui, Kyohei Atarashi + 5 more2026-03-04💬 cs.CL

ITLC at SemEval-2026 Task 11: Normalization and Deterministic Parsing for Formal Reasoning in LLMs

Das Paper stellt eine neuartige Methode vor, die durch strukturelle Abstraktion und deterministisches Parsen syllogistischer Argumente in kanonische logische Repräsentationen die inhaltlichen Verzerrungen von Large Language Models in multilingualen Kontexten reduziert und auf dem SemEval-2026 Task-11-Benchmark Top-5-Ergebnisse erzielt.

Wicaksono Leksono Muhamad, Joanito Agili Lopo, Tack Hwa Wong + 2 more2026-03-04💬 cs.CL

HateMirage: An Explainable Multi-Dimensional Dataset for Decoding Faux Hate and Subtle Online Abuse

Das Paper stellt HateMirage vor, ein neuartiges, mehrdimensionales Datenset aus 4.530 annotierten YouTube-Kommentaren, das subtile Hassrede in Verbindung mit Falschinformationen durch die dreidimensionale Analyse von Zielgruppe, Absicht und gesellschaftlicher Implikation erklärbar macht und damit bestehende Grenzen in der Forschung zu onlineem Missbrauch überwindet.

Sai Kartheek Reddy Kasu, Shankar Biradar, Sunil Saumya + 1 more2026-03-04💬 cs.CL

Graph-GRPO: Stabilizing Multi-Agent Topology Learning via Group Relative Policy Optimization

Der Artikel stellt Graph-GRPO vor, ein neuartiges Framework zur Optimierung von Kommunikations-Topologien in Multi-Agenten-Systemen auf Basis von Large Language Models, das durch die Anwendung von Group Relative Policy Optimization die Gradientenvarianz reduziert und eine präzisere Kreditvergabe ermöglicht, um so die Trainingsstabilität und Leistung im Vergleich zu bestehenden Methoden signifikant zu steigern.

Yueyang Cang, Xiaoteng Zhang, Erlu Zhao + 7 more2026-03-04💬 cs.CL

From Solver to Tutor: Evaluating the Pedagogical Intelligence of LLMs with KMP-Bench

Die Studie stellt KMP-Bench vor, ein umfassendes Benchmark für K-8-Mathematikdidaktik, das zeigt, dass zwar führende Sprachmodelle bei lösbaren Aufgaben stark sind, aber bei der Anwendung pädagogischer Prinzipien in Dialogen scheitern, was durch das Fine-Tuning mit dem neu vorgestellten, pädagogisch reichen KMP-Pile-Datensatz signifikant verbessert werden kann.

Weikang Shi, Houxing Ren, Junting Pan + 8 more2026-03-04💬 cs.CL

The Distribution of Phoneme Frequencies across the World's Languages: Macroscopic and Microscopic Information-Theoretic Models

Diese Studie liefert einen einheitlichen informationstheoretischen Erklärungsansatz für die Verteilung von Phonemfrequenzen, indem sie makroskopisch eine Anpassung an die Ordnungsstatistik einer symmetrischen Dirichlet-Verteilung und mikroskopisch ein Maximum-Entropie-Modell mit artikulatorischen, phonotaktischen und lexikalischen Constraints nachweist.

Fermín Moscoso del Prado Martín, Suchir Salhan2026-03-04💬 cs.CL

TikZilla: Scaling Text-to-TikZ with High-Quality Data and Reinforcement Learning

Das Paper stellt TikZilla vor, ein Modell-Familie auf Basis kleiner Qwen-LLMs, die durch die Nutzung eines hochwertigen, vierfach vergrößerten Datensatzes (DaTikZ-V4) und eines zweistufigen Trainings mit überwachtem Fine-Tuning sowie bestärkendem Lernen (RL) mit semantischen Bild-Rückmeldungen die Text-zu-TikZ-Generierung so weit verbessern, dass sie GPT-4o übertrifft und mit GPT-5 gleichzieht.

Christian Greisinger, Steffen Eger2026-03-04💬 cs.CL