Resource-Efficient Iterative LLM-Based NAS with Feedback Memory

Este artigo propõe um pipeline de busca de arquitetura neural (NAS) eficiente em recursos que utiliza modelos de linguagem grandes (LLMs) em um ciclo fechado com memória de feedback histórica para iterativamente gerar e refinar arquiteturas de redes neurais convolucionais para classificação de imagens em uma única GPU de consumo, alcançando melhorias significativas de precisão sem necessidade de fine-tuning ou infraestrutura em nuvem.

Xiaojie Gu, Dmitry Ignatov, Radu Timofte

Publicado 2026-03-13
📖 4 min de leitura☕ Leitura rápida

Each language version is independently generated for its own context, not a direct translation.

Imagine que você quer construir o carro mais eficiente do mundo, mas não tem um engenheiro chefe, apenas um assistente de escritório muito inteligente (mas um pouco esquecido) e uma oficina pequena.

O artigo que você leu descreve exatamente como eles ensinaram esse "assistente" (uma Inteligência Artificial chamada LLM) a projetar redes neurais (o "cérebro" dos computadores) sozinho, gastando muito pouco dinheiro e energia.

Aqui está a explicação simplificada, usando analogias do dia a dia:

1. O Problema: Projetar Carros é Caro

Normalmente, para criar a melhor arquitetura de rede neural, os cientistas usam métodos que exigem supercomputadores gigantescos e meses de trabalho. É como tentar projetar um carro novo testando milhões de modelos em pistas de corrida reais. É caro demais para a maioria das pessoas.

2. A Solução: O Assistente que Aprende com os Erros

Os autores criaram um sistema onde uma Inteligência Artificial (o "assistente") tenta escrever o código de um novo "cérebro" de computador.

  • A Oficina (GPU): Eles usaram apenas uma placa de vídeo comum (uma RTX 4090), que você pode comprar em uma loja de eletrônicos. É como fazer engenharia em uma garagem, não numa fábrica gigante.
  • O Teste Rápido: Em vez de treinar o carro por anos, eles o dirigem apenas por uma volta rápida (uma "época" de treino) para ver se ele funciona. Se o carro quebra na primeira volta, eles sabem que o projeto estava ruim.

3. O Segredo: A "Memória de Feedback" (O Caderno de Anotações)

Aqui está a parte mais genial. Muitas IAs tentam algo, falham e esquecem tudo, começando do zero na próxima tentativa.

  • A Analogia do Caderno: Imagine que o assistente tem um caderno de anotações com apenas as últimas 5 tentativas.
  • O que está no caderno? Não é apenas "funcionou" ou "não funcionou". É um registro detalhado:
    1. O Problema: "O motor superaqueceu porque o radiador era pequeno."
    2. A Sugestão: "Vamos aumentar o tamanho do radiador."
    3. O Resultado: "O carro quebrou de novo, mas agora o motor não superaqueceu."
  • A Regra de Ouro: Eles usam uma "janela deslizante". O assistente olha apenas para as últimas 5 tentativas para decidir o próximo passo. Isso evita que o caderno fique gigante e confuso (como tentar lembrar de tudo o que aconteceu nos últimos 10 anos), mantendo o foco no que acabou de acontecer.

4. A Dupla de Especialistas

Para não sobrecarregar o cérebro do assistente, eles dividiram o trabalho em duas pessoas (dois modelos de IA):

  1. O Arquiteto (Code Generator): É o cara que desenha o carro e escreve o código. Ele foca apenas em criar algo que funcione.
  2. O Mecânico Sênior (Prompt Improver): É o cara que analisa o caderno de anotações, olha para o carro quebrado, entende por que falhou e dá instruções claras para o Arquiteto sobre como consertar.

Isso é como ter um desenhista e um engenheiro experiente trabalhando juntos, em vez de uma única pessoa tentando fazer tudo de uma vez.

5. O Resultado: Melhoria Contínua

O sistema funciona em um ciclo:

  1. O Arquiteto cria um projeto.
  2. O Mecânico testa (na garagem).
  3. Se falhar, o Mecânico escreve no caderno o que deu errado e como tentar de novo.
  4. O Arquiteto lê o caderno e cria uma versão melhorada.

O que aconteceu na prática?
Eles testaram isso em três "pistas" diferentes (conjuntos de dados de imagens).

  • No começo, os projetos eram ruins (como um carro de papelão).
  • Depois de 2.000 tentativas (que levaram apenas 18 horas de trabalho na placa de vídeo), os projetos ficaram incríveis.
  • Um dos assistentes (DeepSeek-Coder) começou com 28% de eficiência e chegou a 69%. Outro (Qwen2.5) começou com 50% e chegou a 71,5%.

Por que isso é importante?

  • Barato: Não precisa de supercomputadores de nuvem. Qualquer pesquisador com uma placa de vídeo boa pode fazer isso.
  • Inteligente: A IA aprende com os fracassos, não apenas com os sucessos. Ela entende por que algo deu errado.
  • Eficiente: Como o assistente compartilha a memória da placa de vídeo com o treinamento do modelo, ele "aprende" a criar projetos que são leves e eficientes, perfeitos para funcionar em celulares ou dispositivos pequenos.

Resumo da Ópera:
Os autores mostraram que, se você der a uma IA um caderno de anotações simples com os últimos erros e acertos, e deixar ela trabalhar em uma oficina pequena, ela consegue projetar "cérebros" de computador cada vez melhores, sem precisar de milhões de dólares em infraestrutura. É como transformar um estagiário em um engenheiro-chefe através da prática e da reflexão constante.