Proof-of-Guardrail in AI Agents and What (Not) to Trust from It
Este artigo propõe o "Proof-of-Guardrail", um sistema que utiliza Ambientes de Execução Confiáveis (TEE) para fornecer provas criptográficas verificáveis de que as respostas de agentes de IA foram processadas por guardrails de segurança específicos, garantindo a integridade da execução sem revelar o agente proprietário, embora alerte para riscos persistentes de desvio de segurança por desenvolvedores mal-intencionados.