Agentic Explainable Artificial Intelligence (Agentic XAI) Approach To Explore Better Explanation

Diese Studie stellt einen agenten XAI-Rahmen vor, der SHAP-Erklärungen durch iterative Verfeinerung mittels multimodaler LLMs verbessert, wobei Experten- und KI-Evaluierungen zeigen, dass die Erklärungsgüte in den ersten Verfeinerungsrunden signifikant steigt, jedoch bei übermäßiger Iteration aufgrund eines Bias-Varianz-Kompromisses wieder abfällt, was die Notwendigkeit eines strategischen Early Stopping für optimale praktische Nutzbarkeit unterstreicht.

Tomoaki Yamaguchi, Yutong Zhou, Masahiro Ryo, Keisuke KatsuraFri, 13 Ma🤖 cs.AI

Evaluating Zero-Shot and One-Shot Adaptation of Small Language Models in Leader-Follower Interaction

Die Studie zeigt, dass feinabgestimmte kleine Sprachmodelle (SLMs) eine effiziente und genaue Lösung für die Echtzeit-Rollenklassifizierung in der Mensch-Roboter-Interaktion darstellen, wobei jedoch eine Leistungsverschlechterung bei One-Shot-Modi aufgrund von Kontextlängenbeschränkungen festgestellt wurde.

Rafael R. Baptista, André de Lima Salgado, Ricardo V. Godoy, Marcelo Becker, Thiago Boaventura, Gustavo J. G. LahrFri, 13 Ma⚡ eess

"I followed what felt right, not what I was told": Autonomy, Coaching, and Recognizing Bias Through AI-Mediated Dialogue

Die Studie zeigt, dass KI-vermittelte Dialoge im Vergleich zum reinen Lesen die Fähigkeit zur Erkennung von Ableismus verbessern, wobei inklusive oder selbstgesteuerte Ansätze ein ausgewogeneres Ergebnis liefern als direkte Voreingenommenheits-Nudges, die zwar die Unterscheidungsfähigkeit schärfen, aber die allgemeine Negativität erhöhen.

Atieh Taheri, Hamza El Alaoui, Patrick Carrington, Jeffrey P. BighamFri, 13 Ma🤖 cs.AI

Evaluation format, not model capability, drives triage failure in the assessment of consumer health AI

Die Studie zeigt, dass das in einer früheren Veröffentlichung berichtete Versagen von KI-Triage-Systemen bei der Erkennung von Notfällen primär auf den unpassenden, prüfungsähnlichen Evaluierungsformaten beruht und nicht auf mangelnden Fähigkeiten der Modelle, da natürlichere Interaktionsformen die Genauigkeit signifikant verbessern.

David Fraile Navarro, Farah Magrabi, Enrico CoieraFri, 13 Ma🤖 cs.AI

Managing Cognitive Bias in Human Labeling Operations for Rare-Event AI: Evidence from a Field Experiment

Eine Feldstudie auf der Plattform DiagnosUs zeigt, dass ein ausgewogenes Feedback, probabilistische Befragung und eine nachgelagerte Kalibrierung kognitive Verzerrungen bei der menschlichen Annotation seltener Ereignisse reduzieren und die Zuverlässigkeit nachgeschalteter KI-Modelle signifikant verbessern.

Gunnar P. Epping, Andrew Caplin, Erik Duhaime, William R. Holmes, Daniel Martin, Jennifer S. TruebloodFri, 13 Ma💰 q-fin

A technology-oriented mapping of the language and translation industry: Analysing stakeholder values and their potential implication for translation pedagogy

Diese Studie analysiert auf Basis von Interviews mit Branchenakteuren, wie sich im automatisierten Übersetzungssektor menschlicher und technologischer Wert neu verhandeln, wobei Effizienz zur Basiserwartung wird und Anpassungsfähigkeit als zentrale, vermittelnde Kompetenz für Übersetzer hervortritt.

María Isabel Rivas Ginel, Janiça Hackenbuchner, Alina Secar\u{a}, Ralph Krüger, Caroline RossiFri, 13 Ma💬 cs.CL

An Intent of Collaboration: On Agencies between Designers and Emerging (Intelligent) Technologies

Diese Studie untersucht die Machtverhältnisse zwischen Designern und KI-Systemen wie LLMs und schlägt vor, dass Designer ihre kreative Handlungsfähigkeit durch Selbstreflexion, ein tiefes Verständnis der Technologie und die bewusste Gestaltung der Mensch-Maschine-Beziehung zurückgewinnen können.

Pei-Ying Lin, Julie Heij, Iris Borst, Britt Joosten, Kristina Andersen, Wijnand IJsselsteijnFri, 13 Ma🤖 cs.AI

Human-Centred LLM Privacy Audits: Findings and Frictions

Die Studie stellt mit LMP2 ein browserbasiertes Selbstaudit-Tool vor und identifiziert anhand zweier Nutzerstudien sowie einer Evaluierung verschiedener LLMs sowohl die Fähigkeit von Modellen, personenbezogene Merkmale vorherzusagen, als auch neun zentrale Hindernisse für die Entwicklung zuverlässiger, menschenzentrierter Datenschutzprüfungen im Bereich der generativen KI.

Dimitri Staufer, Kirsten Morehouse, David Hartmann, Bettina BerendtFri, 13 Ma💬 cs.CL

A Temporal-Spectral Fusion Transformer with Subject-Specific Adapter for Enhancing RSVP-BCI Decoding

Die vorgestellte Arbeit stellt einen Temporal-Spectral-Fusion-Transformer mit einem subjektspezifischen Adapter (TSformer-SA) vor, der durch die Fusion von zeitlichen und spektralen EEG-Informationen sowie die Nutzung von Vorwissen aus bestehenden Probanden die RSVP-BCI-Decodierungsgenauigkeit auch bei limitierten Trainingsdaten für neue Nutzer signifikant verbessert und die Systembereitstellung beschleunigt.

Xujin Li, Wei Wei, Shuang Qiu + 1 more2026-03-11🤖 cs.AI