A benchmark for joint dialogue satisfaction, emotion recognition, and emotion state transition prediction

Dieses Paper stellt ein neues mehrsprachiges, mehrstufiges chinesisches Dialogdatenset vor, das die gleichzeitige Vorhersage von Zufriedenheit, Emotionserkennung und emotionalen Zustandsübergängen ermöglicht, um die Limitationen bestehender Ressourcen zu überwinden und die Dynamik von Benutzeremotionen in Dialogsystemen besser zu erfassen.

Jing Bian, Haoxiang Su, Liting Jiang + 6 more2026-03-05🤖 cs.AI

AutoHarness: improving LLM agents by automatically synthesizing a code harness

Die Arbeit stellt AutoHarness vor, ein Verfahren, bei dem ein kleineres Sprachmodell durch automatische Synthese und iterative Verfeinerung eines Code-Harnesses oder einer vollständigen Policy so verbessert wird, dass es in TextArena-Spielen größere Modelle wie Gemini-2.5-Pro und GPT-5.2-High sowohl in der Leistung als auch in der Kosteneffizienz übertrifft.

Xinghua Lou, Miguel Lázaro-Gredilla, Antoine Dedieu + 3 more2026-03-05🤖 cs.AI

Training-free Dropout Sampling for Semantic Token Acceptance in Speculative Decoding

Die Arbeit stellt DropMatch vor, eine trainingsfreie Methode, die durch Monte-Carlo-Dropout im LM-Head eine sampling-basierte Akzeptanzentscheidung für das spekulative Decodieren ermöglicht und dadurch die Inference-Geschwindigkeit von Sprachmodellen signifikant steigert, ohne deren Architektur zu verändern oder zusätzliche Kalibrierung zu erfordern.

Jeongtae Lee, Minjung Jo, Hyunjoon Jeong + 5 more2026-03-05💬 cs.CL

Compressed Sensing for Capability Localization in Large Language Models

Die Studie zeigt, dass spezifische Fähigkeiten in großen Sprachmodellen auf wenige, lokalisierte Aufmerksamkeitsköpfe beschränkt sind, und stellt eine Methode auf Basis von Compressed Sensing vor, um diese effizient zu identifizieren, was tiefere Einblicke in die modulare Organisation von Transformer-Modellen für Interpretierbarkeit und Sicherheit ermöglicht.

Anna Bair, Yixuan Even Xu, Mingjie Sun + 1 more2026-03-05💬 cs.CL

Prompt-Dependent Ranking of Large Language Models with Uncertainty Quantification

Diese Arbeit stellt einen Rahmen für prompt-abhängige Rankings von Large Language Models mit statistisch validen Unsicherheitsgarantien vor, der durch die Konstruktion von Konfidenzmengen auf Basis eines kontextuellen Bradley-Terry-Luce-Modells vermeintliche Rangunterschiede als statistisch nicht signifikant entlarvt und so fundierte, robuste Entscheidungsgrundlagen bietet.

Angel Rodrigo Avelar Menendez, Yufeng Liu, Xiaowu Dai2026-03-05🤖 cs.LG

MMAI Gym for Science: Training Liquid Foundation Models for Drug Discovery

Die Arbeit stellt das MMAI Gym for Science vor, ein umfassendes Framework zum Training effizienter, auf molekulare Daten spezialisierter Liquid Foundation Models, die in der Wirkstoffentwicklung spezifische Aufgaben wie ADMET-Vorhersage und Retrosynthese trotz geringerer Größe besser bewältigen als deutlich größere allgemeine oder spezialisierte Modelle.

Maksim Kuznetsov, Zulfat Miftahutdinov, Rim Shayakhmetov + 17 more2026-03-05🤖 cs.AI