Adaptive Activation Cancellation for Hallucination Mitigation in Large Language Models

Die Arbeit stellt Adaptive Activation Cancellation (AAC) vor, ein Echtzeit-Inferenz-Verfahren, das Halluzinationen in großen Sprachmodellen durch die gezielte Unterdrückung spezifischer neuronaler Aktivierungen ohne Nachtraining oder externe Wissensquellen reduziert und dabei gleichzeitig die allgemeine Sprachfähigkeit und das logische Denken des Modells vollständig erhält.

Eric Yocam, Varghese Vaidyan, Gurcan Comert, Paris Kalathas, Yong Wang, Judith L. Mwakalonge2026-03-12💬 cs.CL

Delta-K: Boosting Multi-Instance Generation via Cross-Attention Augmentation

Delta-K ist ein trainingsfreies, plug-and-play-Inferenzframework, das durch die Extraktion und gezielte Injektion semantischer Differenzschlüssel (ΔK\Delta K) in den gemeinsamen Cross-Attention-Key-Raum die Konzeptionstreue bei der Multi-Instance-Bildgenerierung in Diffusionsmodellen verbessert, ohne dabei zusätzliche Trainingsdaten oder Architekturänderungen zu benötigen.

Zitong Wang, Zijun Shen, Haohao Xu, Zhengjie Luo, Weibin Wu2026-03-12🤖 cs.AI

A Diffusion Analysis of Policy Gradient for Stochastic Bandits

Diese Arbeit analysiert eine Diffusionsapproximation des Policy-Gradient-Verfahrens für stochastische Banditen, indem sie zeigt, dass bei einer Lernrate von η=O(Δ2/log(n))\eta = O(\Delta^2/\log(n)) ein logarithmisches Regret von O(klog(k)log(n)/η)O(k \log(k) \log(n) / \eta) erreicht wird, während für bestimmte Instanzen mit logarithmisch vielen Armen eine lineare Lernrate η=O(Δ2)\eta = O(\Delta^2) erforderlich ist, um lineares Regret zu vermeiden.

Tor Lattimore2026-03-12📊 stat

Rethinking the Harmonic Loss via Non-Euclidean Distance Layers

Diese Arbeit erweitert den harmonischen Verlust über die reine euklidische Geometrie hinaus, indem sie systematisch verschiedene nicht-euklidische Distanzmetriken untersucht und nachweist, dass insbesondere kosinus-basierte Ansätze in Vision- und Sprachmodellen die Genauigkeit, Interpretierbarkeit und Nachhaltigkeit im Vergleich zur herkömmlichen Kreuzentropie verbessern.

Maxwell Miller-Golub, Kamil Faber, Marcin Pietron, Panpan Zheng, Pasquale Minervini, Roberto Corizzo2026-03-12🤖 cs.LG

DUCTILE: Agentic LLM Orchestration of Engineering Analysis in Product Development Practice

Die Arbeit stellt DUCTILE vor, ein von einem LLM-Agenten gesteuertes Orchestrierungssystem, das in der Produktentwicklung adaptive Analysen durchführt, während Ingenieure die Aufsicht behalten, und demonstriert dessen Fähigkeit, in einer industriellen Anwendung robuste, fehlerfreie Ergebnisse trotz variierender Eingabeformate zu liefern.

Alejandro Pradas-Gomez, Arindam Brahma, Ola Isaksson2026-03-12🤖 cs.AI

Conversational AI-Enhanced Exploration System to Query Large-Scale Digitised Collections of Natural History Museums

Dieses Paper stellt ein menschenzentriertes System vor, das konversationelle KI nutzt, um über natürliche Sprache und interaktive Karten auf die etwa 1,7 Millionen digitalen Sammlungsdaten des Australian Museum zuzugreifen und so die Erschließung großer naturhistorischer Bestände für die Öffentlichkeit erleichtert.

Yiyuan Wang, Andrew Johnston, Zoë Sadokierski, Rhiannon Stephens, Shane T. Ahyong2026-03-12🤖 cs.AI

Quantum entanglement provides a competitive advantage in adversarial games

Die Studie zeigt, dass Quantenverschränkung in einem hybriden Quanten-Klassischen-Agenten für das Spiel Pong zu einer konsistenten Leistungssteigerung gegenüber separablen Quantenschaltungen und klassischen neuronalen Netzen führt, was die Verschränkung als wertvolle Ressource für das Repräsentationslernen in kompetitiven Reinforcement-Learning-Szenarien etabliert.

Peiyong Wang, Kieran Hymas, James Quach2026-03-12⚛️ quant-ph

Hybrid Self-evolving Structured Memory for GUI Agents

Die Arbeit stellt HyMEM vor, ein hybrides, selbstentwickelndes, graphbasiertes Gedächtnis, das diskrete symbolische Knoten mit kontinuierlichen Embeddings kombiniert, um GUI-Agenten durch strukturierte Mehrhop-Abfragen und dynamische Aktualisierungen zu verbessern und so Open-Source-Modelle mit 7B/8B-Parametern in die Lage zu versetzen, leistungsstarke geschlossene Modelle wie Gemini 2.5 Pro Vision und GPT-4o zu übertreffen.

Sibo Zhu, Wenyi Wu, Kun Zhou, Stephen Wang, Biwei Huang2026-03-12🤖 cs.AI