Runtime Governance for AI Agents: Policies on Paths

O artigo propõe um framework formal de governança em tempo real para agentes de IA, definindo políticas de conformidade como funções determinísticas que avaliam probabilidades de violação com base no caminho de execução do agente, demonstrando que essa abordagem é necessária para gerenciar comportamentos não determinísticos e dependentes do trajeto que não podem ser controlados apenas no momento do design.

Maurits Kaptein, Vassilis-Javed Khan, Andriy Podstavnychy

Publicado 2026-03-18
📖 5 min de leitura🧠 Leitura aprofundada

Each language version is independently generated for its own context, not a direct translation.

Imagine que você contratou um assistente virtual superinteligente para trabalhar na sua empresa. Ele não é um simples chatbot que responde perguntas; ele é um "agente" capaz de planejar, tomar decisões, acessar bancos de dados, enviar e-mails e até escrever códigos para si mesmo.

O problema é que, ao contrário de um funcionário humano ou de um software antigo, esse agente é imprevisível. Se você pedir a ele para "preparar um relatório financeiro", ele pode decidir fazer isso em 5 passos ou em 500 passos. Ele pode acessar os dados certos ou, sem querer, acessar dados confidenciais e enviar um e-mail para o concorrente.

O artigo que você leu, "Governança em Tempo Real para Agentes de IA", é como um manual de instruções para criar um sistema de segurança que funcione enquanto o agente trabalha, e não apenas antes ou depois.

Aqui está a explicação simplificada, usando analogias do dia a dia:

1. O Problema: O Agente é um "Caminho" e não um "Botão"

Antes, os sistemas de segurança funcionavam como porteiros de um prédio.

  • A abordagem antiga (Controle de Acesso): O porteiro olha seu crachá. Se você tem acesso ao "Departamento Financeiro", ele deixa você entrar. Se não tem, ele não deixa.
  • O problema com os Agentes: Imagine que o agente tem um crachá que permite entrar no Financeiro (para pegar dados) E no Correio (para enviar e-mails). O porteiro antigo deixa os dois acontecerem, porque cada ação individual é permitida.
  • O perigo: O agente entra no Financeiro, pega um segredo, e depois vai para o Correio e envia o segredo. O porteiro antigo não viu o problema, porque cada passo sozinho parecia inofensivo. O crime foi a sequência (o caminho), não o passo isolado.

2. A Solução: O "Guarda-Costas" que lê a Mente (Runtime Governance)

Os autores propõem um novo sistema: um Guarda-Costas em Tempo Real.

Em vez de apenas checar o crachá no início, esse guarda-costas observa o agente a cada segundo, perguntando:

"Ok, você acabou de ler o banco de dados de clientes. Agora você quer enviar um e-mail. Dada a sequência do que você fez até agora, isso é seguro?"

Se a resposta for "não", o guarda-costas para o agente antes que o e-mail seja enviado.

3. Como Funciona a "Fórmula Mágica" (O Framework)

Os autores criaram uma fórmula matemática para descrever como esse guarda-costas deve pensar. Eles chamam isso de Função de Política.

Imagine que a decisão de segurança depende de 4 coisas:

  1. Quem é o agente? (É o "Robô de Vendas" ou o "Robô de RH"?)
  2. O que ele já fez? (A "história" ou o "caminho" percorrido até agora).
  3. O que ele quer fazer agora? (A próxima ação proposta).
  4. O que está acontecendo na empresa? (Ex: "O setor de Vendas e o de Investimentos não podem se comunicar hoje").

O sistema calcula a probabilidade de que essa próxima ação cause um desastre. Se a probabilidade for alta, ele bloqueia.

4. Por que as Soluções Atuais Não Funcionam?

O artigo explica por que as ferramentas que temos hoje são insuficientes:

  • Pedir para o Agente "Ser Educado" (Prompts): É como dar um conselho a um motorista: "Por favor, não dirija rápido". A maioria obedece, mas se ele estiver distraído ou for mal-intencionado, ele vai rápido mesmo assim. Não é uma garantia.
  • Bloquear Ferramentas (Controle de Acesso): É como tirar o volante do carro. Se o agente não pode usar o e-mail, ele não envia e-mail. Mas isso também impede que ele faça o trabalho útil. Além disso, não impede que ele use outras ferramentas para vazar dados.
  • Pedir Aprovação Humana: É como ter um chefe que precisa assinar cada e-mail. Funciona, mas se você tem 1.000 agentes trabalhando, o chefe vai ficar louco tentando assinar tudo. O sistema precisa filtrar o que é realmente perigoso.

5. A Analogia do "Trator de Neve" vs. "GPS Inteligente"

  • O software antigo é como um trator de neve que limpa a rua de qualquer jeito. Se a rua estiver bloqueada, ele empurra.
  • O Agente de IA é como um carro autônomo que decide sozinho qual rota tomar.
  • A Governança em Tempo Real é um GPS inteligente que não apenas diz "vire à direita", mas monitora o trânsito, o clima e o histórico do motorista. Se o carro autônomo tentar fazer uma manobra perigosa baseada no que ele viu 5 minutos atrás, o GPS corta o motor antes que ele bata.

6. O Que Isso Significa para o Futuro (e a Lei Europeia)

A União Europeia está criando leis (como o AI Act) que exigem que sistemas de IA de alto risco sejam seguros. Este artigo diz:

"Para cumprir a lei, você não pode apenas configurar o robô no início. Você precisa ter um sistema que vigie cada passo que ele dá, em tempo real, e que possa parar o robô se ele começar a seguir um caminho perigoso."

Resumo em Uma Frase

Este paper diz que não podemos confiar apenas em regras fixas ou em pedir para a IA "ser boa". Precisamos de um sistema de vigilância inteligente que entenda o contexto e a história de cada ação do agente, garantindo que, mesmo que o agente tome decisões aleatórias, ele nunca complete um caminho que viole as regras da empresa.

É a diferença entre ter um porteiro que olha o crachá e ter um segurança que lê a mente e o histórico de cada movimento.

Afogado em artigos na sua área?

Receba digests diários dos artigos mais recentes que correspondam às suas palavras-chave de pesquisa — com resumos técnicos, no seu idioma.

Experimentar Digest →