Execution Is the New Attack Surface: Survivability-Aware Agentic Crypto Trading with OpenClaw-Style Local Executors

Este artigo propõe o padrão de Execução Consciente de Sobrevivência (SAE), uma camada de middleware para sistemas de negociação com agentes estilo OpenClaw que impõe invariantes de segurança não bypassáveis para mitigar riscos de execução e proteger contra perdas irreversíveis causadas por prompts maliciosos ou cadeias de suprimentos de habilidades comprometidas.

Ailiya Borjigin, Igor Stadnyk, Ben Bilski, Serhii Hovorov, Sofiia Pidturkina

Publicado Thu, 12 Ma
📖 5 min de leitura🧠 Leitura aprofundada

Each language version is independently generated for its own context, not a direct translation.

Imagine que você construiu um carro de corrida incrível, dirigido por um piloto de Inteligência Artificial (IA) super inteligente. Esse piloto consegue ler notícias, analisar o mercado e tomar decisões de compra e venda em milissegundos. O problema é que, para o carro andar, você precisa entregar as chaves a ele.

Agora, imagine que esse piloto não é apenas um funcionário, mas um sistema que pode baixar "peças" e "habilidades" de uma loja online (como baixar um aplicativo no celular). Se alguém mal-intencionado colocar um vírus nessa loja, ou se o piloto ler um bilhete falso dizendo "venda tudo agora!", ele pode destruir sua conta financeira em segundos.

Este artigo, escrito por pesquisadores da True Trading e Inc4.net, apresenta uma solução para esse caos: o SAE (Execução Consciente da Sobrevivência).

Aqui está a explicação simples, usando analogias do dia a dia:

1. O Problema: O "Piloto" Está Descontrolado

Antes, a gente achava que o maior risco da IA era ela dar uma resposta errada (como dizer que 2+2=5). Mas no mundo do dinheiro, o risco real é a ação.

  • A Analogia: Imagine que você deixou um robô no controle do seu cofre. Se o robô ler um bilhete falso dizendo "abra o cofre e jogue o dinheiro na rua", ele vai fazer isso.
  • O Cenário: Com o surgimento de "Skills" (habilidades instaláveis) e sistemas como o OpenClaw, os robôs podem baixar novas ferramentas de terceiros. Se uma dessas ferramentas for maliciosa ou se o robô for enganado por um texto, ele pode fazer transações arriscadas demais, usar alavancagem (dinheiro emprestado) perigosa ou vender tudo no momento errado, liquidando sua conta.

2. A Solução: O "Guarda-Costas" (SAE)

Os autores propõem colocar um Guarda-Costas entre o cérebro do robô (que decide o que fazer) e o motor do carro (que executa a ordem na bolsa de valores).

Esse Guarda-Costas não tenta adivinhar se o robô está "certo" ou "errado" em sua lógica. Ele apenas verifica: "Isso é seguro para o cofre?"

O SAE funciona como um filtro de segurança que faz três coisas principais:

A. O "Filtro de Confiança" (O Chefe de Segurança)

O SAE pergunta: "Quem pediu essa ordem?"

  • Se a ordem veio de uma habilidade (skill) que você baixou de um lugar duvidoso, o Guarda-Costas fica mais rigoroso.
  • Se o robô está sob ataque (tentativa de invasão), o Guarda-Costas reduz o poder do robô automaticamente.
  • Analogia: É como um porteiro de boate. Se você chega com um amigo que ele não conhece (uma skill nova), ele não deixa você entrar com a chave mestra do cofre. Ele só deixa você entrar com uma chave pequena.

B. O "Limitador de Velocidade" (Orçamento e Freios)

Mesmo que o robô queira fazer uma aposta gigante (comprar muito Bitcoin com muito dinheiro emprestado), o SAE impõe limites.

  • Ele define um teto de velocidade (alavancagem máxima).
  • Ele define um teto de gastos (quanto do seu dinheiro pode ser usado).
  • Se o mercado está muito agitado (como uma tempestade), ele reduz ainda mais a velocidade, como um piloto que freia antes de uma curva perigosa.
  • Analogia: É como um limitador de velocidade no carro de um adolescente. Mesmo que ele pise no acelerador até o fundo, o carro nunca passa de 80 km/h.

C. O "Pausa para Pensar" (Cooldown)

Se o robô começar a tentar fazer muitas ordens muito rápido (como se estivesse em pânico ou sendo atacado), o SAE impõe uma pausa.

  • Analogia: É como um "respiro" forçado. Se você tentar apertar o botão de "comprar" 100 vezes em um segundo, o sistema bloqueia e diz: "Espere 2 minutos antes de tentar de novo". Isso evita que um erro ou um ataque destrua tudo em frações de segundo.

3. O Resultado: Sobrevivência em vez de Ganho Rápido

Os autores testaram isso usando dados reais da Binance (uma grande bolsa de criptomoedas) com Bitcoin e Ethereum.

  • Sem o Guarda-Costas (NoSAE): O robô, quando enganado ou em momentos de pânico, quase quebrou a conta (perda de 46% do dinheiro).
  • Com o Guarda-Costas (SAE): Mesmo quando o robô tentou fazer coisas perigosas, o Guarda-Costas o impediu. A perda máxima caiu para apenas 3%.

A grande sacada: O SAE não tenta fazer o robô ganhar mais dinheiro (não é um "gênio do mercado"). O objetivo dele é impedir que o robô se mate. Ele garante que, mesmo que o robô cometa um erro grave ou seja hackeado, você não perda tudo.

Resumo em uma frase

O SAE é como colocar um cinto de segurança e um airbag em um carro de corrida dirigido por uma IA: ele não faz o carro ir mais rápido, mas garante que, se o motorista (a IA) perder o controle ou for enganado, você sobrevive ao acidente com o dinheiro intacto.

Isso é crucial porque, no mundo das criptomoedas, um erro de execução pode apagar sua conta em segundos, e a única defesa real é ter um sistema que não confia cegamente no que a IA diz, mas verifica se a ação é segura antes de acontecer.