TikZilla: Scaling Text-to-TikZ with High-Quality Data and Reinforcement Learning

Das Paper stellt TikZilla vor, ein Modell-Familie auf Basis kleiner Qwen-LLMs, die durch die Nutzung eines hochwertigen, vierfach vergrößerten Datensatzes (DaTikZ-V4) und eines zweistufigen Trainings mit überwachtem Fine-Tuning sowie bestärkendem Lernen (RL) mit semantischen Bild-Rückmeldungen die Text-zu-TikZ-Generierung so weit verbessern, dass sie GPT-4o übertrifft und mit GPT-5 gleichzieht.

Christian Greisinger, Steffen Eger2026-03-04💬 cs.CL

Type-Aware Retrieval-Augmented Generation with Dependency Closure for Solver-Executable Industrial Optimization Modeling

Die Autoren stellen eine typbewusste Retrieval-Augmented-Generation-Methode mit abhängigkeitsgeschlossenem Kontext vor, die zuverlässig ausführbare Optimierungsmodelle für industrielle Anwendungen generiert, indem sie eine domänenspezifische Wissensbasis mit mathematischen Abhängigkeiten nutzt, um die strukturellen Fehler herkömmlicher RAG-Ansätze zu vermeiden.

Y. Zhong, R. Huang, M. Wang + 4 more2026-03-04💬 cs.CL

Density-Guided Response Optimization: Community-Grounded Alignment via Implicit Acceptance Signals

Die vorgestellte Arbeit führt die „Density-Guided Response Optimization" (DGRO) ein, eine Methode, die Sprachmodelle durch die Analyse impliziter Akzeptanzsignale und der daraus resultierenden geometrischen Dichtestrukturen im Repräsentationsraum an die Normen spezifischer Online-Communities anpasst, ohne dabei auf explizite Präferenzlabels angewiesen zu sein.

Patrick Gerard, Svitlana Volkova2026-03-04💬 cs.CL

Scaling Knowledge Graph Construction through Synthetic Data Generation and Distillation

Die Arbeit stellt SynthKG und Distill-SynthKG vor, eine Pipeline zur synthetischen Datengenerierung und Modell-Distillation, die durch das Feinabstimmen kleinerer Modelle hochwertige Dokumenten-Wissensgraphen erzeugt und damit sowohl die Qualität als auch die Effizienz von Wissensgraphen-Konstruktion und Retrieval-Aufgaben im Vergleich zu größeren Baseline-Modellen signifikant verbessert.

Prafulla Kumar Choubey, Xin Su, Man Luo + 9 more2026-03-03💬 cs.CL

Polynomial, trigonometric, and tropical activations

Diese Arbeit stellt neue Aktivierungsfunktionen auf Basis orthogonaler Polynome, trigonometrischer Funktionen und tropischer Algebra vor, die durch varianzausgleichende Initialisierung das Training tiefer Modelle wie GPT-2 und ConvNeXt ohne Gradientenprobleme ermöglichen und sich zudem durch Hermite-Interpolation nahtlos zur Feinabstimmung an klassische Aktivierungen anpassen lassen.

Ismail Khalfaoui-Hassani, Stefan Kesselheim2026-03-03💬 cs.CL