Do Deployment Constraints Make LLMs Hallucinate Citations? An Empirical Study across Four Models and Five Prompting Regimes

Eine empirische Studie an vier Modellen und fünf Prompting-Regimen zeigt, dass deploymentbedingte Einschränkungen die Halluzination von Zitaten in geschlossenen Umgebungen nicht verhindern, sondern die Verifizierbarkeit von Referenzen drastisch senken, was eine nachträgliche Überprüfung vor der Nutzung in der Softwaretechnik zwingend erforderlich macht.

Chen Zhao, Yuan Tang, Yitian Qian2026-03-10💻 cs

MAviS: A Multimodal Conversational Assistant For Avian Species

Die Arbeit stellt MAviS vor, ein multimodales KI-System, das auf einem umfassenden Datensatz für über 1.000 Vogelarten basiert, um durch die Integration von Bild-, Audio- und Textdaten präzise artspezifische Fragen zu beantworten und so den Fortschritt im Bereich des Naturschutzes und der ökologischen Überwachung zu fördern.

Yevheniia Kryklyvets, Mohammed Irfan Kurpath, Sahal Shaji Mullappilly, Jinxing Zhou, Fahad Shabzan Khan, Rao Anwer, Salman Khan, Hisham Cholakkal2026-03-10💻 cs

VisualScratchpad: Inference-time Visual Concepts Analysis in Vision Language Models

Die Arbeit stellt VisualScratchpad vor, eine interaktive Schnittstelle, die mithilfe von Sparse Autoencodern und Text-zu-Bild-Aufmerksamkeit visuelle Konzepte in Vision-Language-Modellen analysiert, um deren Fehlermodi wie unzureichende Cross-Modal-Ausrichtung oder irreführende visuelle Konzepte aufzudecken und zu debuggen.

Hyesu Lim, Jinho Choi, Taekyung Kim, Byeongho Heo, Jaegul Choo, Dongyoon Han2026-03-10💻 cs

Agora: Teaching the Skill of Consensus-Finding with AI Personas Grounded in Human Voice

Die Studie stellt „Agora" als eine KI-gestützte Plattform vor, die mithilfe von LLMs und authentischen menschlichen Stimmen hilft, die Fähigkeit zum Konsensfinden zu trainieren, und zeigt in einer Vorstudie, dass Nutzer mit Zugang zu detaillierten Erklärungen bessere Problemlösungsfähigkeiten und qualitativ hochwertigere Konsensentscheidungen erzielen als eine Kontrollgruppe, die nur aggregierte Daten sah.

Suyash Fulay, Prerna Ravi, Emily Kubin, Shrestha Mohanty, Michiel Bakker, Deb Roy2026-03-10💻 cs

AgrI Challenge: A Data-Centric AI Competition for Cross-Team Validation in Agricultural Vision

Die AgrI Challenge stellt ein datenzentriertes Wettbewerbsframework mit einem neuartigen Cross-Team-Validierungsansatz vor, der durch unabhängige Datensammlung und kollaboratives Training die Generalisierungsfähigkeit von landwirtschaftlichen Vision-Modellen unter realen Feldbedingungen signifikant verbessert.

Mohammed Brahimi, Karim Laabassi, Mohamed Seghir Hadj Ameur, Aicha Boutorh, Badia Siab-Farsi, Amin Khouani, Omar Farouk Zouak, Seif Eddine Bouziane, Kheira Lakhdari, Abdelkader Nabil Benghanem2026-03-10🤖 cs.LG

The Yerkes-Dodson Curve for AI Agents: Emergent Cooperation Under Environmental Pressure in Multi-Agent LLM Simulations

Diese Studie zeigt, dass sich die kooperative Interaktion von Multi-Agenten-LLM-Systemen in einem Grid-World-Szenario gemäß der Yerkes-Dodson-Kurve verhält, wobei mittlere Umgebungsdruckniveaus die Handelsaktivität maximieren, während extremer Druck zu einem Zusammenbruch der Verhaltensvielfalt führt und sexuelle Selektion Aggression eliminiert.

Ivan Pasichnyk2026-03-10💻 cs

Scaling Laws in the Tiny Regime: How Small Models Change Their Mistakes

Die Studie zeigt, dass im Tiny-Regime unter 20 Millionen Parametern die Skalierungsgesetze für Fehlerquoten steiler verlaufen als bei großen Modellen, sich jedoch die Fehlerstruktur grundlegend ändert, indem kleine Modelle ihre Kapazität auf einfache Klassen konzentrieren und dabei überraschend besser kalibriert sind, was die Notwendigkeit einer Validierung direkt am Zielmodell für Edge-Deployment unterstreicht.

Mohammed Alnemari, Rizwan Qureshi, Nader Begrazadah2026-03-10🤖 cs.LG

Position: LLMs Must Use Functor-Based and RAG-Driven Bias Mitigation for Fairness

Diese Positionspapier plädiert für einen kombinierten Ansatz zur Bekämpfung von Verzerrungen in großen Sprachmodellen, der kategorientheoretische Funktoren zur strukturellen Entschärfung von Vorurteilen mit retrievalgestützter Generierung (RAG) zur dynamischen Kontextualisierung durch externe Wissensquellen verbindet, um faire und gerechte Ausgaben zu gewährleisten.

Ravi Ranjan, Utkarsh Grover, Agorista Polyzou2026-03-10💬 cs.CL