The Price of Prompting: Profiling Energy Use in Large Language Models Inference

이 논문은 대규모 언어 모델 (LLM) 추론 과정의 에너지 소비를 모니터링하고 최적화하기 위한 'MELODI' 프레임워크와 이를 통해 생성된 데이터셋을 소개하며, 프롬프트 속성과 에너지 효율 간의 상관관계를 분석하여 지속 가능한 LLM 배포를 위한 기초를 마련했습니다.

Erik Johannes Husom, Arda Goknil, Lwin Khin Shar, Sagar Sen

게시일 2026-03-04
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"대형 언어 모델 (LLM) 이 말을 할 때, 얼마나 많은 '전기세'를 치르는가?"**를 연구한 내용입니다.

비유하자면, 이 연구는 거대한 AI 로봇이 한 마디 할 때마다 전기 계량기가 얼마나 빠르게 돌아가는지를 정밀하게 측정하고, 그 원인을 분석한 보고서입니다.

핵심 내용을 쉽게 풀어서 설명해 드릴게요.


1. 연구의 배경: "AI 는 말만 잘하는 게 아니라, 전기도 많이 먹어요"

최근 챗GPT 나 클로드 같은 AI 가 우리 삶에 깊숙이 들어왔습니다. 하지만 이 AI 들은 머리가 좋아질수록 (모델이 커질수록) 전기를 엄청나게 많이 먹습니다.

  • 문제점: AI 를 훈련시키는 것 (학습) 도 전기를 많이 쓰지만, 우리가 매일매일 AI 에게 질문하고 답을 받는 과정 (추론) 이 훨씬 더 자주 일어나기 때문에, 이 과정에서의 전기 소비가 환경에 더 큰 부담을 줍니다.
  • 목표: "어떤 상황에서 AI 가 전기를 가장 많이 먹는지"를 정확히 측정하고, 어떻게 하면 전기를 아낄 수 있을지 찾아내는 것입니다.

2. 해결책: 'MELODI'라는 정밀 측정기 개발

연구진은 MELODI라는 새로운 도구를 만들었습니다.

  • 비유: 기존에 쓰던 도구들은 "집 전체의 전기 사용량"만 대충 재는 것이었다면, MELODI 는 **"AI 가 작동하는 그 순간, CPU(머리) 와 GPU(근육) 가 각각 얼마나 전기를 먹는지"**까지 세세하게 재는 초정밀 에너지 미터입니다.
  • 특징: AI 가 말을 시작하기 직전과 끝난 직후까지 전력을 쫓아다니며 (버퍼 설정), AI 가 아닌 다른 프로그램이 전기를 먹는 것을 구별해냅니다.

3. 주요 발견: "전기를 많이 쓰는 진짜 이유"

MELODI 로 수많은 실험을 해보니 놀라운 사실들이 드러났습니다.

① 모델 크기가 중요하지만, 답의 길이가 더 중요해요!

  • 비유: 거대한 AI(700 억 개 파라미터) 는 작은 AI(70 억 개) 보다 약 100 배 더 많은 전기를 먹습니다. 하지만, AI 가 답변을 얼마나 길게 쓰느냐가 전기 사용량을 결정하는 가장 큰 요인입니다.
  • 발견: AI 가 "네"라고 짧게 답할 때보다, "오늘 날씨에 대해 10 줄로 설명해줘"라고 길게 답할 때 전기가 훨씬 많이 나갑니다. 답변의 길이가 길어질수록 전기 사용량은 거의 비례해서 늘어납니다. (이 관계는 99% 이상 정확합니다.)

② 질문의 난이도는 별로 중요하지 않아요

  • 비유: "1+1 은?"이라고 물어보든, "양자역학에 대해 설명해줘"라고 물어보든, 질문 자체의 복잡함은 전기 사용량에 큰 영향을 주지 않습니다.
  • 발견: 중요한 건 질문이 아니라, AI 가 얼마나 길게 답변을 생성하느냐입니다.

③ 노트북 vs 워크스테이션: 노트북이 더 비효율적이에요

  • 비유: 같은 AI 모델을 똑같은 질문으로 돌렸을 때, 노트북에서 실행하면 고성능 워크스테이션보다 전기를 더 많이 먹습니다.
  • 이유: 노트북은 전기를 아끼려고 설계되어 있지만, 무거운 AI 작업을 하려면 비효율적으로 전기를 소모하게 됩니다. 마치 소형 차에 트럭 엔진을 달고 달리는 것과 비슷합니다.

4. 예측 모델: "전기 사용량 계산기"

연구진은 이 데이터를 바탕으로 전기 사용량을 예측하는 공식을 만들었습니다.

  • 공식: 전기 사용량 = (답변 길이) × (모델 종류) + (사용한 컴퓨터 종류)
  • 이 공식은 99.6% 이상의 정확도로 AI 가 전기를 얼마나 쓸지 미리 알려줍니다. 즉, "이 질문을 하면 AI 가 약 이만큼의 전기를 쓸 거야"라고 미리 계산할 수 있게 된 것입니다.

5. 다른 측정 도구와의 비교

기존에 쓰이던 다른 측정 도구들 (CodeCarbon 등) 과 비교해 보니, MELODI 가 훨씬 정확했습니다.

  • 비유: 다른 도구들은 "집 전체의 전기 사용량"을 재서 AI 가 먹은 전기와 TV 가 먹은 전기를 섞어 계산했다면, MELODI 는 **"AI 가 직접 먹은 전기"**만 정확히 따져냈습니다. 특히 CPU(머리) 부분의 측정은 기존 도구보다 훨씬 정밀했습니다.

💡 결론: 우리가 무엇을 배울 수 있을까요?

이 논문의 핵심 메시지는 **"AI 를 더 친환경적으로 쓰려면, 질문을 어떻게 바꾸기보다 '답변의 길이'를 조절하고, 적절한 하드웨어를 선택해야 한다"**는 것입니다.

  1. 답변을 짧게: AI 에게 "간단하게 요약해줘"라고 요청하면 전기를 크게 아낄 수 있습니다.
  2. 적절한 모델: 거대한 모델을 쓸 필요가 없다면 작은 모델을 쓰는 것이 좋습니다.
  3. 장비 선택: 무거운 AI 작업을 자주 한다면 노트북보다는 전용 워크스테이션이나 서버를 쓰는 것이 오히려 전기 효율이 더 좋을 수 있습니다.

이 연구는 AI 가 더 똑똑해지면서 환경 부담도 커지는 시대에, **"어떻게 하면 AI 를 쓰되 지구도 지킬 수 있을까?"**에 대한 구체적인 해답을 제시합니다.