Agentic Critical Training

Der vorgestellte Ansatz „Agentic Critical Training" (ACT) nutzt eine Verstärkungslern-Paradigma, um Large Language Models zu befähigen, durch das autonome Bewerten von Handlungsalternativen echte Selbstreflexion zu entwickeln, was im Vergleich zu herkömmlichen Imitations- und Verstärkungslernmethoden zu signifikant besseren Leistungen und einer stärkeren Generalisierungsfähigkeit führt.

Weize Liu, Minghui Liu, Sy-Tuyen Ho, Souradip Chakraborty, Xiyao Wang, Furong Huang2026-03-10🤖 cs.LG

A Cognitive Explainer for Fetal ultrasound images classifier Based on Medical Concepts

Diese Arbeit stellt einen interpretierbaren Framework vor, der auf medizinischen Konzepten und einer konzeptbasierten Graph-Convolutional-Neural-Network (GCN) Architektur basiert, um die Entscheidungsfindung bei der Erkennung von Standard-Ebenen in fetalen Ultraschallbildern für Kliniker transparent und nachvollziehbar zu machen.

Yingni Wanga, Yunxiao Liua, Licong Dongc, Xuzhou Wua, Huabin Zhangb, Qiongyu Yed, Desheng Sunc, Xiaobo Zhoue, Kehong Yuan2026-03-09🤖 cs.AI

Mean-based incomplete pairwise comparisons method with the reference values

Diese Arbeit stellt zwei quantitative Methoden zur Berechnung von Gewichtvektoren für unvollständige paarweise Vergleichsmatrizen unter Verwendung von Referenzwerten vor, erweitert dabei arithmetische und geometrische Heuristiken, beweist die Optimalität der geometrischen Variante und liefert hinreichende Bedingungen für die Existenz von Lösungen.

Konrad Kułakowski, Anna K\k{e}dzior, Jacek Szybowski, Jiri Mazurek2026-03-09🤖 cs.AI

RAG-Driver: Generalisable Driving Explanations with Retrieval-Augmented In-Context Learning in Multi-Modal Large Language Model

Das Paper stellt RAG-Driver vor, ein neuartiges, retrieval-augmentiertes multimodales Large-Language-Modell, das durch kontextbasiertes Lernen mit abgerufenen Expertenbeispielen hochleistungsfähige, erklärbare und generalisierbare autonome Fahrentscheidungen trifft, ohne dass nach dem Training weitere Anpassungen erforderlich sind.

Jianhao Yuan, Shuyang Sun, Daniel Omeiza, Bo Zhao, Paul Newman, Lars Kunze, Matthew Gadd2026-03-09🤖 cs.AI

Combining X-Vectors and Bayesian Batch Active Learning: Two-Stage Active Learning Pipeline for Speech Recognition

Diese Arbeit stellt eine neuartige zweistufige Pipeline für die automatische Spracherkennung vor, die unüberwachtes Clustering von X-Vektoren mit einem auf Monte-Carlo-Dropout basierenden bayesschen Batch-Active-Learning kombiniert, um durch strategische Stichprobenauswahl den Labelaufwand zu minimieren und die Modellleistung zu optimieren.

Ognjen Kundacina, Vladimir Vincan, Dragisa Miskovic2026-03-09⚡ eess

FALCON: Future-Aware Learning with Contextual Object-Centric Pretraining for UAV Action Recognition

Das Paper stellt FALCON vor, einen selbstüberwachten Vorab-Trainingsansatz für die UAV-Aktionserkennung, der durch objektspezifisches Masking und zukunftsorientierte Rekonstruktion die Dominanz von Hintergrundinformationen überwindet und so die Genauigkeit bei gleichzeitig schnellerer Inferenz im Vergleich zu überwachten Methoden signifikant verbessert.

Ruiqi Xian, Xiyang Wu, Tianrui Guan, Xijun Wang, Boqing Gong, Dinesh Manocha2026-03-09🤖 cs.AI

UniHR: Hierarchical Representation Learning for Unified Knowledge Graph Link Prediction

Das Paper stellt UniHR vor, ein einheitliches Framework für das hierarchische Repräsentationslernen, das durch die Module HiDR und HiSL verschiedene Arten von Wissensgraphen (hyper-relational, temporal und verschachtelt) in eine gemeinsame Tripel-basierte Darstellung überführt und so eine generalisierbare Link-Vorhersage in komplexen realen Szenarien ermöglicht.

Zhiqiang Liu, Yin Hua, Mingyang Chen + 4 more2026-03-09💬 cs.CL

Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation

Diese Übersichtsarbeit bietet einen strukturierten Überblick über den Einsatz von Large Multimodal Language Models im gesamten wissenschaftlichen Lebenszyklus, von der Literaturrecherche und Ideengenerierung bis hin zur Inhaltserstellung, Bewertung und den damit verbundenen ethischen Herausforderungen.

Steffen Eger, Yong Cao, Jennifer D'Souza, Andreas Geiger, Christian Greisinger, Stephanie Gross, Yufang Hou, Brigitte Krenn, Anne Lauscher, Yizhi Li, Chenghua Lin, Nafise Sadat Moosavi, Wei Zhao, Tristan Miller2026-03-09🤖 cs.AI

Conditioning LLMs to Generate Code-Switched Text

Diese Arbeit stellt eine Methode vor, bei der LLMs durch Feinabstimmung auf einem parallelen Korpus, das durch Rückübersetzung natürlicher Code-Switching-Sätze entsteht, trainiert werden, um fließende englisch-spanische Code-Switching-Texte zu generieren, wobei sich zeigt, dass LLM-basierte Bewertungen besser mit menschlichen Präferenzen übereinstimmen als traditionelle Metriken.

Maite Heredia, Gorka Labaka, Jeremy Barnes, Aitor Soroa2026-03-09🤖 cs.AI