MemeIntel: Explainable Detection of Propagandistic and Hateful Memes

Die Arbeit stellt mit MemeXplain den ersten groß angelegten Datensatz für erklärbare Erkennung von Propaganda und Hassmemes vor und schlägt einen mehrstufigen Optimierungsansatz für Vision-Language-Modelle vor, der sowohl die Klassifizierungsgenauigkeit als auch die Qualität der Erklärungen im Vergleich zum State-of-the-Art signifikant verbessert.

Mohamed Bayan Kmainasi, Abul Hasnat, Md Arid Hasan + 2 more2026-03-03💬 cs.CL

Rewarding Doubt: A Reinforcement Learning Approach to Calibrated Confidence Expression of Large Language Models

Die Autoren stellen eine neue Reinforcement-Learning-Methode vor, die große Sprachmodelle durch Optimierung einer logarithmischen Belohnungsfunktion direkt darauf trainiert, ihre Antworten mit genau kalibrierten Konfidenzschätzungen zu versehen, wodurch eine zuverlässige und generalisierbare Unsicherheitswahrnehmung erreicht wird.

David Bani-Harouni, Chantal Pellegrini, Paul Stangel + 4 more2026-03-03💬 cs.CL

Not-Just-Scaling Laws: Towards a Better Understanding of the Downstream Impact of Language Model Design Decisions

Diese Studie zeigt durch eine Meta-Analyse von 92 Open-Source-Modellen, dass die Vorhersagekraft für die downstream-Leistung von Sprachmodellen um 3–28 % gesteigert werden kann, wenn neben Größe und Trainingsdaten auch spezifische Designentscheidungen wie die Datenzusammensetzung und Architekturmerkmale berücksichtigt werden.

Emmy Liu, Amanda Bertsch, Lintang Sutawika + 9 more2026-03-03💬 cs.CL

A Foundational Individual Mobility Prediction Model based on Open-Source Large Language Models

Die Studie stellt MoBLLM vor, ein kosteneffizientes, auf Open-Source-LLMs basierendes Fundamentmodell für die Vorhersage individueller Mobilität, das durch Parameter-Effizientes Fine-Tuning überlegene Genauigkeit, Robustheit und Transferierbarkeit auf verschiedenen Datensätzen im Vergleich zu bestehenden Deep-Learning-Modellen und kommerziellen LLMs erreicht.

Zhenlin Qin, Leizhen Wang, Yancheng Ling + 2 more2026-03-03💬 cs.CL

AnesSuite: A Comprehensive Benchmark and Dataset Suite for Anesthesiology Reasoning in LLMs

Die Arbeit stellt AnesSuite vor, das erste umfassende Datensatz- und Benchmark-System für das anästhesiologische Reasoning in LLMs, und entwickelt darauf aufbauend das Basismodell Morpheus, das durch gezieltes Training nicht nur in diesem Fachgebiet, sondern auch in allgemeinen medizinischen und breiten Domänen signifikante Verbesserungen erzielt.

Xiang Feng, Wentao Jiang, Zengmao Wang + 5 more2026-03-03💬 cs.CL

When Large Language Models are More PersuasiveThan Incentivized Humans, and Why

Die Studie zeigt, dass große Sprachmodelle wie Claude 3.5 Sonnet und DeepSeek v3 in interaktiven Dialogen motivierte menschliche Überzeuger übertreffen, wobei dieser Vorteil vom Kontext (wahrheitsgemäß oder täuschend) und der Interaktionshäufigkeit abhängt und möglicherweise auf eine höhere Überzeugungskraft der KI-Modelle zurückzuführen ist.

Philipp Schoenegger, Francesco Salvi, Jiacheng Liu + 37 more2026-03-03💬 cs.CL

Chain-of-Lure: A Universal Jailbreak Attack Framework using Unconstrained Synthetic Narratives

Diese Arbeit stellt „Chain-of-Lure" vor, ein universelles Jailbreak-Framework, das mithilfe von unbeschränkten synthetischen Narrativen und einem Hilfs-LLM für die Optimierung von Dialogen schädliche Absichten in Large Language Models erfolgreich umgeht und dabei neue Erkenntnisse für die Entwicklung robusterer Sicherheitsmechanismen liefert.

Wenhan Chang, Tianqing Zhu, Yu Zhao + 3 more2026-03-03💬 cs.CL

Learning to Reason without External Rewards

Die Arbeit stellt Intuitor vor, eine Methode des Reinforcement Learning aus internem Feedback, die Large Language Models ermöglicht, sich ausschließlich auf ihr eigenes Selbstvertrauen als Belohnungssignal zu verlassen, um komplexe reasoning-Aufgaben ohne externe Belohnungen oder gelabelte Daten zu meistern und dabei eine bessere Generalisierung als herkömmliche Ansätze zu erreichen.

Xuandong Zhao, Zhewei Kang, Aosong Feng + 2 more2026-03-03💬 cs.CL