Evaluating randomized smoothing as a defense against adversarial attacks in trajectory prediction

Este artigo propõe e avalia o uso do "randomized smoothing" como uma defesa eficaz e computacionalmente eficiente para melhorar a robustez de modelos de previsão de trajetória contra ataques adversariais, sem comprometer a precisão em cenários normais.

Julian F. Schumann, Eduardo Figueiredo, Frederik Baymler Mathiesen, Luca Laurenti, Jens Kober, Arkady Zgonnikov

Publicado 2026-03-12
📖 4 min de leitura☕ Leitura rápida

Each language version is independently generated for its own context, not a direct translation.

🚗 O "Escudo Mágico" para Carros Autônomos: Como Proteger a Previsão de Trajetórias

Imagine que você está dirigindo um carro autônomo. O carro precisa prever o que os outros veículos farão nos próximos segundos para não bater neles. É como se o carro tivesse um "oráculo" que diz: "O carro da frente vai virar à esquerda em 2 segundos".

O problema é que, assim como um ilusionista pode enganar nossos olhos, existem "malfeitores digitais" (ataques adversariais) que podem fazer pequenas alterações nos dados que o carro recebe, enganando esse oráculo. O carro pode achar que o outro carro vai virar para a direita, quando na verdade ele vai para a esquerda, causando um acidente.

Este artigo de pesquisa propõe uma solução simples e inteligente para proteger esses carros: o Alisamento Aleatório (Randomized Smoothing).

1. O Problema: O "Sussurro" que Engana

Pense no sistema de previsão do carro como um jornalista muito focado. Se alguém sussurrar uma palavra errada no ouvido dele (um pequeno ruído ou distorção nos dados), ele pode escrever uma notícia completamente falsa.

  • Na vida real: Um atacante muda ligeiramente a posição ou velocidade de um carro na câmera do veículo autônomo.
  • O resultado: O modelo de IA, que é muito preciso em condições normais, entra em pânico e prevê uma trajetória errada, colocando o carro em perigo.

2. A Solução: O "Comitê de Sabedoria"

Os autores do artigo sugerem uma técnica chamada Alisamento Aleatório. Em vez de confiar em uma única previsão baseada em uma única imagem ou dado, o carro faz algo mais inteligente: ele cria um comitê de previsões.

Aqui está a analogia perfeita:
Imagine que você precisa adivinhar a temperatura de amanhã.

  • Método Antigo (Vulnerável): Você olha para um único termômetro. Se alguém colocar uma lâmpada quente perto dele (o ataque), você acha que vai fazer 40°C e veste um casaco de inverno.
  • Método Novo (Alisamento Aleatório): Você pega 20 termômetros diferentes. Antes de ler cada um, você joga um pouco de areia fina e aleatória sobre a lente de cada um (isso é o "ruído"). Depois, você pede para 20 pessoas lerem esses termômetros turvos e tira a média das respostas.

Mesmo que a areia faça um termômetro ler 45°C e outro ler 35°C, a média provavelmente será algo próximo de 40°C (a verdade). O "sussurro" do atacante não consegue enganar todo o comitê ao mesmo tempo, porque o ruído aleatório dilui o efeito da mentira.

3. Como Funciona na Prática?

Os pesquisadores testaram duas formas de aplicar esse "jogar areia" (ruído) nos dados:

  1. Alisamento de Posição: Eles adicionam um pouco de "tremedeira" aleatória na posição onde o carro está. É como se o carro estivesse um pouco tonto e olhasse para o mundo de vários ângulos levemente diferentes antes de decidir.
  2. Alisamento de Controle: Eles adicionam ruído nas intenções do carro (como aceleração ou direção). É como se o carro imaginasse: "E se eu tivesse acelerado um pouquinho mais? E se eu tivesse freado um pouco?" e tirasse a média dessas possibilidades.

4. O Que Eles Descobriram?

Os pesquisadores testaram isso em dois cenários reais (um simulador e dados de verdade em rotatórias na Alemanha) com dois modelos de IA diferentes. Os resultados foram surpreendentes:

  • Escudo Eficiente: Quando os "malfeitores" tentaram enganar o carro, o método de "comitê" (Alisamento) manteve a previsão muito mais estável. O carro continuou prevendo corretamente onde o outro veículo iria, mesmo sob ataque.
  • Sem Prejuízo no Dia a Dia: O melhor de tudo? Quando não há ataque (o dia a dia normal), o carro não fica mais lento ou menos preciso. Na verdade, em alguns casos, ficou até melhor! É como se o método funcionasse como um "exercício mental" que deixa o cérebro do carro mais forte, sem atrapalhar sua visão normal.
  • Barato e Rápido: A técnica não exige reprogramar o carro do zero. É como adicionar um filtro de segurança que pode ser ligado e desligado facilmente.

Conclusão

Em resumo, os autores mostraram que, para proteger os carros autônomos de hackers que tentam enganar seus sensores, não precisamos necessariamente criar um sistema de defesa super complexo e caro.

Basta fazer o carro "pensar em várias versões levemente diferentes da realidade" e tirar a média. É uma técnica simples, como pedir a opinião de várias pessoas em vez de confiar em apenas uma, que torna o sistema muito mais difícil de ser enganado, mantendo-o seguro e eficiente no trânsito.