Combining X-Vectors and Bayesian Batch Active Learning: Two-Stage Active Learning Pipeline for Speech Recognition

Diese Arbeit stellt eine neuartige zweistufige Pipeline für die automatische Spracherkennung vor, die unüberwachtes Clustering von X-Vektoren mit einem auf Monte-Carlo-Dropout basierenden bayesschen Batch-Active-Learning kombiniert, um durch strategische Stichprobenauswahl den Labelaufwand zu minimieren und die Modellleistung zu optimieren.

Ognjen Kundacina, Vladimir Vincan, Dragisa Miskovic2026-03-09⚡ eess

UniHR: Hierarchical Representation Learning for Unified Knowledge Graph Link Prediction

Das Paper stellt UniHR vor, ein einheitliches Framework für das hierarchische Repräsentationslernen, das durch die Module HiDR und HiSL verschiedene Arten von Wissensgraphen (hyper-relational, temporal und verschachtelt) in eine gemeinsame Tripel-basierte Darstellung überführt und so eine generalisierbare Link-Vorhersage in komplexen realen Szenarien ermöglicht.

Zhiqiang Liu, Yin Hua, Mingyang Chen + 4 more2026-03-09💬 cs.CL

Rethinking the Mixture of Vision Encoders Paradigm for Enhanced Visual Understanding in Multimodal LLMs

Das Paper stellt LEO vor, eine effiziente Architektur für multimodale Sprachmodelle, die durch eine leichte Kombination aus unabhängigen Projektoren, sequenzieller Verflechtung von Bildkacheln und dynamischer Tiling mit globalem Kontext die Leistung bestehender Mixture-of-Vision-Encoders-Ansätze auf zahlreichen Benchmarks und im autonomen Fahren verbessert.

Mozhgan Nasr Azadani, James Riddell, Sean Sedwards, Krzysztof Czarnecki2026-03-09💬 cs.CL

Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation

Diese Übersichtsarbeit bietet einen strukturierten Überblick über den Einsatz von Large Multimodal Language Models im gesamten wissenschaftlichen Lebenszyklus, von der Literaturrecherche und Ideengenerierung bis hin zur Inhaltserstellung, Bewertung und den damit verbundenen ethischen Herausforderungen.

Steffen Eger, Yong Cao, Jennifer D'Souza, Andreas Geiger, Christian Greisinger, Stephanie Gross, Yufang Hou, Brigitte Krenn, Anne Lauscher, Yizhi Li, Chenghua Lin, Nafise Sadat Moosavi, Wei Zhao, Tristan Miller2026-03-09🤖 cs.AI

Conditioning LLMs to Generate Code-Switched Text

Diese Arbeit stellt eine Methode vor, bei der LLMs durch Feinabstimmung auf einem parallelen Korpus, das durch Rückübersetzung natürlicher Code-Switching-Sätze entsteht, trainiert werden, um fließende englisch-spanische Code-Switching-Texte zu generieren, wobei sich zeigt, dass LLM-basierte Bewertungen besser mit menschlichen Präferenzen übereinstimmen als traditionelle Metriken.

Maite Heredia, Gorka Labaka, Jeremy Barnes, Aitor Soroa2026-03-09🤖 cs.AI

RM-R1: Reward Modeling as Reasoning

Die Arbeit stellt Reasoning Reward Models (ReasRMs) vor, insbesondere die RM-R1-Familie, die durch die Umformulierung des Reward-Modeling als Reasoning-Aufgabe mit einem Chain-of-Rubrics-Mechanismus und einem zweistufigen Trainingsprozess die Interpretierbarkeit und Leistung von Belohnungsmodellen signifikant steigern.

Xiusi Chen, Gaotang Li, Ziqi Wang, Bowen Jin, Cheng Qian, Yu Wang, Hongru Wang, Yu Zhang, Denghui Zhang, Tong Zhang, Hanghang Tong, Heng Ji2026-03-09🤖 cs.AI