Upholding Epistemic Agency: A Brouwerian Assertibility Constraint for Responsible AI

Este artigo propõe uma restrição de assertibilidade inspirada em Brouwer para IA responsável, exigindo que sistemas em domínios de alto risco emitam apenas afirmações ou negações acompanhadas de certificados públicos e contestáveis, retornando "Indeterminado" caso contrário, a fim de preservar a agência epistêmica democrática ao substituir a confiança estatística por justificação verificável.

Michael Jülich2026-03-05🤖 cs.AI

Continuous Modal Logical Neural Networks: Modal Reasoning via Stochastic Accessibility

O artigo propõe a "Fluid Logic", um paradigma que utiliza Equações Diferenciais Estocásticas Neurais para elevar o raciocínio modal lógico de estruturas Kripke discretas para variedades contínuas, permitindo que Redes Neurais Lógicas Informadas (LINNs) integrem operadores modais diretamente na função de perda para gerar soluções estruturalmente consistentes em domínios como lógica epistêmica, temporal e deôntica.

Antonin Sulc2026-03-05🤖 cs.LG

SpotIt+: Verification-based Text-to-SQL Evaluation with Database Constraints

O artigo apresenta o SpotIt+, uma ferramenta de código aberto que avalia sistemas Text-to-SQL verificando a equivalência de consultas através da geração de instâncias de banco de dados diferenciadas, utilizando um pipeline inovador que combina mineração de regras e validação por LLMs para garantir que as discrepâncias encontradas reflitam restrições práticas e relevantes.

Rocky Klopfenstein, Yang He, Andrew Tremante + 3 more2026-03-05🤖 cs.AI