Density-Guided Response Optimization: Community-Grounded Alignment via Implicit Acceptance Signals

Die vorgestellte Arbeit führt die „Density-Guided Response Optimization" (DGRO) ein, eine Methode, die Sprachmodelle durch die Analyse impliziter Akzeptanzsignale und der daraus resultierenden geometrischen Dichtestrukturen im Repräsentationsraum an die Normen spezifischer Online-Communities anpasst, ohne dabei auf explizite Präferenzlabels angewiesen zu sein.

Patrick Gerard, Svitlana Volkova2026-03-04💬 cs.CL

Scaling Knowledge Graph Construction through Synthetic Data Generation and Distillation

Die Arbeit stellt SynthKG und Distill-SynthKG vor, eine Pipeline zur synthetischen Datengenerierung und Modell-Distillation, die durch das Feinabstimmen kleinerer Modelle hochwertige Dokumenten-Wissensgraphen erzeugt und damit sowohl die Qualität als auch die Effizienz von Wissensgraphen-Konstruktion und Retrieval-Aufgaben im Vergleich zu größeren Baseline-Modellen signifikant verbessert.

Prafulla Kumar Choubey, Xin Su, Man Luo + 9 more2026-03-03💬 cs.CL

Polynomial, trigonometric, and tropical activations

Diese Arbeit stellt neue Aktivierungsfunktionen auf Basis orthogonaler Polynome, trigonometrischer Funktionen und tropischer Algebra vor, die durch varianzausgleichende Initialisierung das Training tiefer Modelle wie GPT-2 und ConvNeXt ohne Gradientenprobleme ermöglichen und sich zudem durch Hermite-Interpolation nahtlos zur Feinabstimmung an klassische Aktivierungen anpassen lassen.

Ismail Khalfaoui-Hassani, Stefan Kesselheim2026-03-03💬 cs.CL

MemeIntel: Explainable Detection of Propagandistic and Hateful Memes

Die Arbeit stellt mit MemeXplain den ersten groß angelegten Datensatz für erklärbare Erkennung von Propaganda und Hassmemes vor und schlägt einen mehrstufigen Optimierungsansatz für Vision-Language-Modelle vor, der sowohl die Klassifizierungsgenauigkeit als auch die Qualität der Erklärungen im Vergleich zum State-of-the-Art signifikant verbessert.

Mohamed Bayan Kmainasi, Abul Hasnat, Md Arid Hasan + 2 more2026-03-03💬 cs.CL

Rewarding Doubt: A Reinforcement Learning Approach to Calibrated Confidence Expression of Large Language Models

Die Autoren stellen eine neue Reinforcement-Learning-Methode vor, die große Sprachmodelle durch Optimierung einer logarithmischen Belohnungsfunktion direkt darauf trainiert, ihre Antworten mit genau kalibrierten Konfidenzschätzungen zu versehen, wodurch eine zuverlässige und generalisierbare Unsicherheitswahrnehmung erreicht wird.

David Bani-Harouni, Chantal Pellegrini, Paul Stangel + 4 more2026-03-03💬 cs.CL

Not-Just-Scaling Laws: Towards a Better Understanding of the Downstream Impact of Language Model Design Decisions

Diese Studie zeigt durch eine Meta-Analyse von 92 Open-Source-Modellen, dass die Vorhersagekraft für die downstream-Leistung von Sprachmodellen um 3–28 % gesteigert werden kann, wenn neben Größe und Trainingsdaten auch spezifische Designentscheidungen wie die Datenzusammensetzung und Architekturmerkmale berücksichtigt werden.

Emmy Liu, Amanda Bertsch, Lintang Sutawika + 9 more2026-03-03💬 cs.CL

A Foundational Individual Mobility Prediction Model based on Open-Source Large Language Models

Die Studie stellt MoBLLM vor, ein kosteneffizientes, auf Open-Source-LLMs basierendes Fundamentmodell für die Vorhersage individueller Mobilität, das durch Parameter-Effizientes Fine-Tuning überlegene Genauigkeit, Robustheit und Transferierbarkeit auf verschiedenen Datensätzen im Vergleich zu bestehenden Deep-Learning-Modellen und kommerziellen LLMs erreicht.

Zhenlin Qin, Leizhen Wang, Yancheng Ling + 2 more2026-03-03💬 cs.CL