Eka-Eval: An Evaluation Framework for Low-Resource Multilingual Large Language Models

Die Autoren stellen EKA-EVAL vor, ein Open-Source-Evaluierungsframework, das über eine benutzerfreundliche Schnittstelle und eine modulare Architektur hinweg mehr als 55 multilinguale Benchmarks für ressourcenschwache Sprachen vereint und dabei sowohl in der Benutzerfreundlichkeit als auch in der Reproduzierbarkeit bestehende Lösungen signifikant übertrifft.

Samridhi Raj Sinha, Rajvee Sheth, Abhishek Upperwal + 1 more2026-03-06💻 cs

New Insights into Optimal Alignment of Acoustic and Linguistic Representations for Knowledge Transfer in ASR

Diese Arbeit schlägt ein neuartiges, auf unbalanciertem Optimal-Transport basierendes Ausrichtungsmodell vor, das die strukturelle Asymmetrie zwischen akustischen und linguistischen Repräsentationen als Detektionsproblem behandelt, um durch präzises Matching und flexible Behandlung von Rauschen die Leistung von ASR-Systemen bei der Wissensübertragung zu verbessern.

Xugang Lu, Peng Shen, Hisashi Kawai2026-03-06💻 cs

Conversational Speech Reveals Structural Robustness Failures in SpeechLLM Backbones

Die Studie zeigt, dass Sprachmodelle als Rückgrat von SpeechLLMs bei der Verarbeitung spontaner, unflüssiger Konversationen strukturelle Robustheitslücken aufweisen, wobei Reasoning-Modelle durch eine Tendenz zur semantischen Abstraktion flüssige Inhalte übermäßig löschen und Feinabstimmung zwar Spitzenleistungen erzielt, aber die Generalisierungsfähigkeit beeinträchtigt.

Maria Teleki, Sai Janjur, Haoran Liu + 11 more2026-03-06💻 cs

Beyond Prefixes: Graph-as-Memory Cross-Attention for Knowledge Graph Completion with Large Language Models

Die Arbeit stellt GMT (Graph-as-Memory Tuning) vor, einen neuen Ansatz, der lokale Graphstrukturen als expliziten Speicher in große Sprachmodelle integriert, um durch tiefgreifende, tokenweise Cross-Attention eine überlegene Wissensgraphen-Vervollständigung zu ermöglichen, die herkömmliche Prefix-Methoden in Bezug auf evidenzbasiertes Schlussfolgern deutlich übertrifft.

Ruitong Liu, Boxu Lin, Peize Li + 4 more2026-03-06💻 cs

Narrow Finetuning Leaves Clearly Readable Traces in Activation Differences

Die Studie zeigt, dass eine enge Feinabstimmung von Sprachmodellen deutliche, analysierbare Spuren in den Aktivierungen hinterlässt, die nicht nur zur Rekonstruktion des Trainingsdatensatzes genutzt werden können, sondern auch vor der Gefahr warnen, solche Modelle als realistische Proxy-Modelle für breitere Sicherheits- und Interpretierbarkeitsforschung zu verwenden.

Julian Minder, Clément Dumas, Stewart Slocum + 4 more2026-03-06💻 cs

EchoMind: An Interrelated Multi-level Benchmark for Evaluating Empathetic Speech Language Models

Die Studie stellt EchoMind vor, ein neuartiges, mehrstufiges Benchmark-System zur Evaluierung empathischer Sprachmodelle, das deren Fähigkeit testet, nicht nur den gesprochenen Inhalt, sondern auch emotionale Nuancen in der Stimmlage zu integrieren, und zeigt auf, dass selbst fortschrittliche Modelle bei der Verarbeitung expressiver vokaler Hinweise noch erhebliche Defizite aufweisen.

Li Zhou, Lutong Yu, You Lyu + 6 more2026-03-06💻 cs