Upholding Epistemic Agency: A Brouwerian Assertibility Constraint for Responsible AI

Dieser Artikel schlägt eine Brouwer-inspirierte Assertibilitätsbeschränkung für verantwortungsvolle KI vor, die in hochriskanten Domänen die epistemische Agency bewahrt, indem Systeme nur dann Behauptungen aufstellen oder verneinen dürfen, wenn sie einen öffentlich überprüfbaren Berechtigungsnachweis vorlegen können, andernfalls aber den Status „Unbestimmt" zurückgeben müssen.

Michael Jülich2026-03-05🤖 cs.AI

Continuous Modal Logical Neural Networks: Modal Reasoning via Stochastic Accessibility

Die Arbeit stellt Fluid Logic und Continuous Modal Logical Neural Networks (CMLNNs) vor, ein Paradigma, das modale logische Schlussfolgerungen durch stochastische Differentialgleichungen auf kontinuierliche Mannigfaltigkeiten überträgt, um logisch konsistente neuronale Netzwerke für Anwendungen wie Halluzinationserkennung, geometrische Rekonstruktion und sichere Steuerung zu ermöglichen.

Antonin Sulc2026-03-05🤖 cs.LG

SpotIt+: Verification-based Text-to-SQL Evaluation with Database Constraints

Die Autoren stellen SpotIt+ vor, ein Open-Source-Tool zur Evaluierung von Text-to-SQL-Systemen, das durch die Kombination von regelbasiertem Constraint-Mining und LLM-Validierung realistische Datenbankinstanzen generiert, um effektiv Unterschiede zwischen generierten und Gold-SQL-Abfragen aufzudecken, die bei herkömmlichen Testverfahren unentdeckt bleiben.

Rocky Klopfenstein, Yang He, Andrew Tremante + 3 more2026-03-05🤖 cs.AI