Is continuous CoT better suited for multi-lingual reasoning?

Die Studie zeigt, dass das kontinuierliche Chain-of-Thought-Verfahren (CODI) im Vergleich zur herkömmlichen Feinabstimmung nicht nur eine bis zu 50-fache Kompression der Denkspuren ermöglicht, sondern auch durch seine sprachinvarianten latenten Repräsentationen insbesondere bei ressourcenarmen Sprachen und Zero-Shot-Szenarien deutlich robustere multilinguale Schlussfolgerungen erzielt.

Ali Hamza Bashir, Behzad Shomali, Markus Frey, Mehdi Ali, Rafet Sifa, David Berghaus2026-03-10🤖 cs.LG

TildeOpen LLM: Leveraging Curriculum Learning to Achieve Equitable Language Representation

Die Arbeit stellt TildeOpen LLM vor, ein 30-Milliarden-Parameter-Modell, das durch Curriculum-Learning und gezielte Datenkuratierung die Leistung für 34 europäische Sprachen, insbesondere für baltische, finno-ugrische und slawische Sprachen, verbessert und dabei eine deutlich gerechtere sprachliche Repräsentation bei begrenzten Rechenressourcen erreicht.

Toms Bergmanis, Martins Kronis, Ingus J\=anis Pretkalninš, D\=avis Nicmanis, Jelizaveta Jelinska, Roberts Rozis, Rinalds V\=iksna, M\=arcis Pinnis2026-03-10💬 cs.CL

Supporting Workflow Reproducibility by Linking Bioinformatics Tools across Papers and Executable Code

Die Studie stellt CoPaLink vor, ein automatisiertes System, das durch Named Entity Recognition und Entity Linking Bioinformatik-Werkzeuge in wissenschaftlichen Texten mit deren Implementierung in ausführbarem Workflow-Code verknüpft, um die Reproduzierbarkeit und Nachvollziehbarkeit von Forschungsarbeiten zu verbessern.

Clémence Sebe, Olivier Ferret, Aurélie Névéol, Mahdi Esmailoghli, Ulf Leser, Sarah Cohen-Boulakia2026-03-10💬 cs.CL

Quantifying Cross-Lingual Transfer in Paralinguistic Speech Tasks

Diese Studie führt die Cross-Lingual Transfer Matrix (CLTM) ein, um systematisch den Einfluss von Quell- auf Zielsprachendaten bei paralinguistischen Aufgaben wie Geschlechteridentifikation und Sprecherüberprüfung zu quantifizieren und zeigt dabei, dass trotz der Annahme von Sprachunabhängigkeit signifikante, aufgabenspezifische sprachabhängige Transfermuster bestehen.

Pol Buitrago, Oriol Pareras, Federico Costa, Javier Hernando2026-03-10💬 cs.CL

Bootstrapping Audiovisual Speech Recognition in Zero-AV-Resource Scenarios with Synthetic Visual Data

Die vorgestellte Studie demonstriert, dass ein Framework zur Audiovisuellen Spracherkennung für ressourcenarme Sprachen durch die Generierung synthetischer Videodaten mittels Lip-Syncing realer Audioaufnahmen mit statischen Gesichtsbildern erfolgreich bootstrapped werden kann, was in einer Anwendung auf Katalanisch zu einer nahezu state-of-the-art Leistung führt.

Pol Buitrago, Pol Gàlvez, Oriol Pareras, Javier Hernando2026-03-10💬 cs.CL

Not All Queries Need Deep Thought: CoFiCot for Adaptive Coarse-to-fine Stateful Refinement

Das Papier stellt CoFiCot vor, ein adaptives Framework, das durch eine mehrstufige Klassifizierung von Anfragen nach Schwierigkeitsgrad und eine darauf aufbauende, zustandsbehaftete Verfeinerung die Rechenressourcen von LLMs effizienter nutzt, um sowohl einfache als auch komplexe Aufgaben optimal zu lösen.

Dongxu Zhang, Hongqiang Lin, Yiding Sun, Pengyu Wang, Qirui Wang, Ning Yang, Jihua Zhu2026-03-10💬 cs.CL

NCL-UoR at SemEval-2026 Task 5: Embedding-Based Methods, Fine-Tuning, and LLMs for Word Sense Plausibility Rating

Die NCL-UoR-Studie zu SemEval-2026 Task 5 zeigt, dass strukturierte Prompting-Strategien mit expliziten Entscheidungsregeln für das Bewerten der Plausibilität von Wortbedeutungen in narrativen Kontexten sowohl feinabgestimmte Transformer-Modelle als auch embedding-basierte Ansätze übertreffen und dabei das Prompt-Design wichtiger ist als die reine Modellgröße.

Tong Wu, Thanet Markchom, Huizhi Liang2026-03-10💬 cs.CL

AdaCultureSafe: Adaptive Cultural Safety Grounded by Cultural Knowledge in Large Language Models

Die Arbeit stellt AdaCultureSafe vor, ein Framework, das durch die Erstellung eines spezialisierten Datensatzes und eine wissensbasierte Methode die kulturelle Sicherheit von Large Language Models verbessert, indem sie diese explizit mit kulturellem Wissen verknüpft, um deren bisherige mangelnde Korrelation zu überwinden.

Hankun Kang, Di Lin, Zhirong Liao, Pengfei Bai, Xinyi Zeng, Jiawei Jiang, Yuanyuan Zhu, Tieyun Qian2026-03-10💬 cs.CL

Evaluating LLM-Based Grant Proposal Review via Structured Perturbations

Diese Studie untersucht die Eignung von LLMs für die Begutachtung von EPSRC-Förderanträgen durch strukturierte Perturbationen und stellt fest, dass zwar ein abschnittsbasierter Ansatz die beste Leistung zeigt, die Modelle jedoch eine hohe Variabilität aufweisen und sich zu stark auf Compliance-Checks statt auf eine ganzheitliche Bewertung konzentrieren.

William Thorne, Joseph James, Yang Wang, Chenghua Lin, Diana Maynard2026-03-10💬 cs.CL

Learning Multiple Utterance-Level Attribute Representations with a Unified Speech Encoder

Diese Arbeit stellt ein einheitliches Nachtrainierungs-Framework vor, das es einem einzigen Sprach-Grundmodell ermöglicht, durch Erweiterung des bestehenden Paradigmas der kontextuellen Einbettungen mehrere Arten von Äußerungsebenen-Repräsentationen (wie Semantik und Sprecheridentität) gleichzeitig zu erlernen, was sich in verbesserten Leistungen bei mehrsprachiger Sprachsuche und Sprechererkennung zeigt.

Maryem Bouziane, Salima Mdhaffar, Yannick Estève2026-03-10💬 cs.CL