Resource-Efficient Iterative LLM-Based NAS with Feedback Memory

이 논문은 피드백 메모리와 이중 LLM 전략을 활용하여 단일 소비자용 GPU 에서만 실행 가능한 자원 효율적인 반복형 신경망 구조 탐색 (NAS) 파이프라인을 제안하며, 대규모 클라우드 인프라 없이도 이미지 분류 성능을 크게 향상시킵니다.

Xiaojie Gu, Dmitry Ignatov, Radu Timofte

게시일 2026-03-13
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"작은 인공지능 (LLM) 이 스스로 실수를 배우며 더 좋은 신경망 구조를 찾아내는 방법"**을 소개합니다.

기존의 인공지능 설계는 거대한 슈퍼컴퓨터가 수천 번을 시뮬레이션해야 했지만, 이 연구는 일반 가정용 그래픽카드 (RTX 4090) 하나작은 크기의 인공지능 모델만으로도 가능하다고 말합니다.

이 복잡한 내용을 쉽게 이해할 수 있도록 '요리사'와 '레시피' 비유로 설명해 드릴게요.


🍳 비유: "실수하는 요리사와 메모장"

상상해 보세요. 훌륭한 요리사 (인공지능 모델) 가 새로운 요리를 개발하려고 합니다. 하지만 처음부터 완벽할 수는 없죠.

1. 기존 방식 vs 이 연구의 방식

  • 기존 방식 (비효율적): 요리사가 요리를 만들고, 맛을 보고, 실패하면 그 요리를 완전히 잊어버립니다. 그리고 다시 처음부터 새로운 요리를 만듭니다. 이 과정에서 실패한 경험 (왜 맛이 없었는지) 을 기록하지 않기 때문에 같은 실수를 반복합니다.
  • 이 연구의 방식 (효율적): 요리사가 요리를 만들고, 실패하면 구체적인 메모를 남깁니다. "소금이 너무 많았음", "불이 너무 세서 탔음" 같은 이유와 "다음엔 소금 줄이고 불을 낮춰보자"는 해결책을 적어둡니다. 그리고 가장 최근 5 번의 시도만 메모장에 남겨두고, 그걸 보고 다음 요리를 만듭니다.

2. 핵심 기술 3 가지 (요리사의 도구)

이 연구는 세 가지 핵심 장치를 통해 요리사가 스스로 성장하게 합니다.

  • ① 요리사 (코드 생성기) & 비평가 (프롬프트 개선기)

    • 요리사: "이제 이 레시피대로 요리를 만들어봐!"라고 주문을 받으면, 실제로 작동하는 파이썬 (PyTorch) 코드를 작성합니다.
    • 비평가: 요리사가 만든 요리를 맛봅니다 (데이터로 학습). 그리고 "이건 너무 짜고, 저건 불이 약했어"라고 분석한 뒤, 다음 요리를 위해 구체적인 조언을 적어줍니다.
    • 중요한 점: 이 두 역할은 같은 컴퓨터에서 돌아가기 때문에, 요리사가 무거운 요리를 만들면 컴퓨터가 버거워집니다. 그래서 **가볍고 효율적인 요리 (작은 모델)**를 자연스럽게 선호하게 됩니다.
  • ② '최근 5 개' 메모장 (히스토리 피드백 메모리)

    • 요리사가 100 번을 시도했다고 해서 100 번 전의 모든 메모를 다 보면 머리가 복잡해집니다.
    • 그래서 **가장 최근 5 번의 시도 (성공/실패 기록)**만 남깁니다.
    • 이 메모에는 **"문제점 (왜 실패했나) + 해결책 (어떻게 고칠까) + 결과 (성공했나 실패했나)"**가 3 단으로 정리되어 있습니다.
    • 마치 요리사가 "어제 소금 너무 많았지? 오늘 줄였는데 아직 짜네? 그럼 더 줄여야지"라고 직관적으로 배우는 것과 같습니다.
  • ③ 빠른 맛보기 (1 에포크 평가)

    • 요리를 완성할 때까지 10 시간씩 끓일 필요는 없습니다. 1 시간만 끓여보고 "이건 맛없겠다"라고 판단하면 바로 버리고 다음 걸 만듭니다.
    • 이렇게 **짧은 시간 (1 에포크)**만 학습시켜도 어떤 레시피가 더 좋은지 대략적인 순위를 매길 수 있어, 시간을 아낄 수 있습니다.

3. 실험 결과: 작은 요리사가 대박을 내다

연구진은 세 가지 다른 스타일의 요리사 (LLM 모델) 를 시험해 보았습니다.

  • DeepSeek-Coder (전문 요리사): 코딩에 특화된 모델입니다. 실패율이 낮고 꾸준히 실력을 키워, CIFAR-10(사진 분류 게임) 에서 **28% → 69%**로 점수가 크게 올랐습니다.
  • Qwen2.5 (도전적인 요리사): 실패는 많이 했지만, 성공했을 때의 레시피가 가장 훌륭했습니다. **50% → 71.5%**로 가장 높은 점수를 기록했습니다.
  • GLM-5 (신중한 요리사): 실패를 거의 안 했지만, 점수 상승폭은 작았습니다. 하지만 가장 안정적이었습니다.

결론: 어떤 모델이든, 실수를 기록하고 배우는 과정을 거치면 처음에 만든 요리보다 훨씬 맛있는 요리를 만들어냈습니다.

💡 이 연구가 왜 중요할까요?

  1. 저렴합니다: 비싼 클라우드 서버가 필요 없습니다. 집에 있는 고사양 PC 하나면 됩니다. (약 18 시간만 돌리면 끝!)
  2. 작은 모델도 가능합니다: 거대한 AI 가 아니어도, **작은 AI(70 억 개 파라미터 이하)**만으로도 훌륭한 결과를 낼 수 있습니다.
  3. 실용적입니다: 이 방법으로 찾은 모델은 컴퓨터 성능이 낮은 스마트폰이나 IoT 기기에도 바로 쓸 수 있을 정도로 가볍고 효율적입니다.

📝 한 줄 요약

"인공지능이 자신의 실패를 '최근 5 개'만 기억하며 메모장에 적어두고, 그걸 바탕으로 스스로 레시피를 고쳐가며 더 좋은 모델을 찾아내는, 저렴하고 효율적인 자동 설계 시스템입니다."

이 기술은 앞으로 인공지능을 개발할 때, 거대한 돈과 시간을 들이지 않고도 작은 장비로 최적의 설계를 찾아낼 수 있는 길을 열어줍니다.