The Confidence Gate Theorem: When Should Ranked Decision Systems Abstain?

Diese Arbeit stellt fest, dass konfidenzbasierte Enthaltungen in Rangentscheidungssystemen nur dann die Entscheidungsqualität monoton verbessern, wenn strukturelle Unsicherheit vorliegt, während sie bei kontextueller Unsicherheit versagen und somit eine Anpassung des Konfidenzsignals an den Unsicherheitstyp sowie eine Vorabprüfung der Bedingungen C1 und C2 für den erfolgreichen Einsatz erforderlich machen.

Ronald Doku2026-03-11🤖 cs.AI

When Learning Rates Go Wrong: Early Structural Signals in PPO Actor-Critic

Die Studie zeigt, dass der Overfitting-Underfitting-Indicator (OUI) bereits zu einem frühen Trainingszeitpunkt von 10 % als wirksames Signal dient, um in PPO-Actor-Critic-Systemen stabile Lernraten von instabilen zu unterscheiden und dadurch ineffiziente Hyperparametersuchen durch eine präzise Früherkennung zu vermeiden.

Alberto Fernández-Hernández, Cristian Pérez-Corral, Jose I. Mestre, Manuel F. Dolz, Jose Duato, Enrique S. Quintana-Ortí2026-03-11🤖 cs.AI

Towards a Neural Debugger for Python

Die Arbeit stellt „Neural Debuggers" vor, eine neue Klasse von Sprachmodellen, die traditionelle Debugger-Funktionen wie das Setzen von Haltepunkten und das schrittweise Durchlaufen von Code nachahmen, um sowohl die Vorwärts- als auch die Rückwärtsausführung von Python-Programmen zuverlässig zu modellieren und so die Grundlage für fortschrittlichere Agenten-basierte Codiersysteme zu legen.

Maximilian Beck, Jonas Gehring, Jannik Kossen, Gabriel Synnaeve2026-03-11🤖 cs.AI

Think Before You Lie: How Reasoning Improves Honesty

Die Studie zeigt, dass im Gegensatz zum menschlichen Verhalten das Nachdenken bei großen Sprachmodellen die Ehrlichkeit erhöht, da der Prozess des moralischen Abwägens das Modell durch einen verzerrten Repräsentationsraum führt, in dem ehrliche Antworten stabiler sind als täuschende.

Ann Yuan, Asma Ghandeharioun, Carter Blum, Alicia Machado, Jessica Hoffmann, Daphne Ippolito, Martin Wattenberg, Lucas Dixon, Katja Filippova2026-03-11🤖 cs.AI

BEACON: Language-Conditioned Navigation Affordance Prediction under Occlusion

Das Paper stellt BEACON vor, ein System zur Vorhersage von Navigationsaffordanzen in einer vogelperspektivischen Wärmebildkarte, das durch die Kombination von Sprachanweisungen mit RGB-D-Observationen und einem visuell-sprachlichen Modell in der Lage ist, auch verdeckte Zielorte zu erkennen und so die Genauigkeit im Vergleich zu bildbasierten Methoden signifikant zu steigern.

Xinyu Gao, Gang Chen, Javier Alonso-Mora2026-03-11🤖 cs.AI

Understanding the Use of a Large Language Model-Powered Guide to Make Virtual Reality Accessible for Blind and Low Vision People

Diese Studie untersucht die Nutzung eines von einem Large Language Model (LLM) angetriebenen virtuellen Führers durch 16 blinde und sehbehinderte Personen in sozialen VR-Umgebungen und zeigt, dass die Interaktionsweise je nach Anwesenheit anderer Nutzer zwischen einer instrumentellen Werkzeugnutzung und einer companionschaftlichen Beziehung wechselt, woraus wichtige Designempfehlungen für zukünftige barrierefreie VR-Systeme abgeleitet werden.

Jazmin Collins, Sharon Y Lin, Tianqi Liu, Andrea Stevenson Won, Shiri Azenkot2026-03-11🤖 cs.AI

Automated Reinforcement Learning: An Overview

Dieser Artikel bietet einen Überblick über das automatisierte Reinforcement Learning (AutoRL), das verschiedene Komponenten wie MDP-Modellierung, Algorithmusauswahl und Hyperparameter-Optimierung automatisiert, und fasst dabei aktuelle Forschung, einschließlich LLM-basierter Techniken, sowie zukünftige Herausforderungen und Forschungsrichtungen zusammen.

Reza Refaei Afshar, Joaquin Vanschoren, Uzay Kaymak, Rui Zhang, Yaoxin Wu, Wen Song, Yingqian Zhang2026-03-10🤖 cs.LG

Explainable classification of astronomical uncertain time series

Diese Arbeit stellt ein erklärbares, unsicherheitsbewusstes Subsequenz-Modell vor, das die Klassifizierung astronomischer Zeitreihen mit vergleichbarer Leistung wie Black-Box-Methoden ermöglicht, indem es Datenunsicherheit direkt als Eingabe verarbeitet und Domain-Experten die Nachvollziehbarkeit der Vorhersagen sowie potenzielle neue Erkenntnisse für die theoretische Astrophysik bietet.

Michael Franklin Mbouopda (LIMOS, UCA), Emille E. O. Ishida (LIMOS, UCA), Engelbert Mephu Nguifo (LIMOS, UCA), Emmanuel Gangler (LPC, UCA)2026-03-10🔭 astro-ph

Online Dispatching and Routing for Automated Guided Vehicles in Pickup and Delivery Systems on Loop-Based Graphs

Die Autoren stellen einen effizienten, loop-basierten Algorithmus für das Online-Dispatching und Routing von fahrerlosen Transportsystemen (AGVs) in Kreisgraphen vor, der in Experimenten mit realen und theoretischen Instanzen entweder bessere Ergebnisse oder gleichwertige Lösungen in kürzerer Rechenzeit im Vergleich zu exakten Methoden, Greedy-Heuristiken und Metaheuristiken liefert.

Louis Stubbe, Jens Goemaere, Jan Goedgebeur2026-03-10💻 cs

Survey of Computerized Adaptive Testing: A Machine Learning Perspective

Dieser Übersichtsartikel bietet eine maschinelle Lernperspektive auf den Computerized Adaptive Testing (CAT), indem er die Integration von ML-Techniken in Messmodelle, Fragenauswahl, Itembank-Konstruktion und Teststeuerung analysiert, um robuste, faire und effiziente adaptive Testsysteme zu entwickeln.

Yan Zhuang, Qi Liu, Haoyang Bi, Zhenya Huang, Weizhe Huang, Jiatong Li, Junhao Yu, Zirui Liu, Zirui Hu, Yuting Hong, Zachary A. Pardos, Haiping Ma, Mengxiao Zhu, Shijin Wang, Enhong Chen2026-03-10🤖 cs.LG

Fast Explanations via Policy Gradient-Optimized Explainer

Die Arbeit stellt FEX vor, ein neuartiges Framework, das attributionsbasierte Erklärungen durch Wahrscheinlichkeitsverteilungen und Policy-Gradient-Optimierung ermöglicht, um die Erklärungszeit um über 97 % und den Speicherverbrauch um 70 % im Vergleich zu herkömmlichen modellunabhängigen Ansätzen zu reduzieren, ohne dabei die Qualität oder allgemeine Anwendbarkeit zu beeinträchtigen.

Deng Pan, Nuno Moniz, Nitesh Chawla2026-03-10🤖 cs.LG

Exploring Diffusion Models' Corruption Stage in Few-Shot Fine-tuning and Mitigating with Bayesian Neural Networks

Diese Arbeit identifiziert und analysiert eine unerwartete „Korruptionsphase" während des Few-Shot-Fine-Tunings von Diffusionsmodellen, die durch eine verengte Lernverteilung verursacht wird, und schlägt vor, Bayesianische Neuronale Netze zur impliziten Verbreiterung dieser Verteilung einzusetzen, um die Bildqualität und Vielfalt zu verbessern, ohne zusätzliche Inferenzkosten zu verursachen.

Xiaoyu Wu, Jiaru Zhang, Yang Hua, Bohan Lyu, Hao Wang, Tao Song, Haibing Guan2026-03-10🤖 cs.LG