Modality Inflation: Energy Characterization and Optimization Opportunities for MLLM Inference

이 논문은 멀티모달 대규모 언어 모델 (MLLM) 추론에서 발생하는 '모달리티 인플레이션' 현상을 분석하여 에너지 소비 패턴을 규명하고, 단계별 동적 전압 및 주파수 스케일링 (DVFS) 을 통해 에너지 효율을 크게 개선할 수 있음을 제시합니다.

Mona Moghadampanah, Adib Rezaei Shahmirzadi, Farhana Amin, Dimitrios S. Nikolopoulos

게시일 2026-03-06
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"멀티모달 대형 언어 모델 (MLLM)"**이라는 최신 AI 기술이 얼마나 많은 전기를 먹는지, 그리고 어떻게 그 전기를 아낄 수 있는지 연구한 내용입니다.

쉽게 말해, **"눈과 귀를 가진 AI(이미지 + 텍스트)"**가 **"눈만 가진 AI(텍스트만)"**보다 전기를 훨씬 더 많이 먹는데, 그 이유와 해결책을 찾아낸 이야기입니다.

핵심 내용을 일상적인 비유로 설명해 드릴게요.


1. 문제: "눈"이 생기면서 생기는 '전력 폭탄' (모달리티 인플레이션)

예전 AI 는 글자만 읽는 독서 클럽이었습니다. 하지만 최신 AI 는 그림도 보고 영상도 보는 다재다능한 예술가가 되었습니다.

  • 비유: 독서 클럽은 책 한 권만 읽으면 되지만, 예술가는 그림을 보고, 그 그림을 설명하는 글을 쓰고, 다시 그림을 그리는 작업을 합니다.
  • 현상: 이 '그림을 보는 과정 (비전 인코딩)'과 '그림을 글자로 바꾸는 과정'이 추가되면서, AI 가 처리해야 할 작업량이 불어납니다. 논문에서는 이를 **'모달리티 인플레이션 (Multimodal Inflation)'**이라고 부릅니다.
  • 결과: 같은 질문을 해도, 그림이 포함되면 AI 는 17% 에서 최대 94% 까지 더 많은 전기를 먹습니다. 마치 같은 거리를 가는데, 걸어서 가는 대신 무거운 배낭을 메고 자전거를 타는 것과 비슷합니다.

2. 분석: 전기는 어디서 가장 많이 쓰일까? (단계별 에너지 분석)

연구진은 AI 가 그림을 처리하는 과정을 세 단계로 나누어 전기 사용량을 측정했습니다.

  1. 그림 분석 단계 (Vision Encoding): 그림을 보고 특징을 뽑아내는 작업.
  2. 준비 단계 (Prefill): 그림과 글을 합쳐서 AI 가 대답할 준비를 하는 작업.
  3. 대답 단계 (Decoding): 실제로 글을 하나씩 써내는 작업.

재미있는 발견:

  • 모델 A (예: Qwen2.5-VL): 그림을 분석하는 데 너무 많은 에너지를 씁니다. (마치 그림을 분석하는 데만 1 시간 걸리는 화가)
  • 모델 B (예: LLaVA-OneVision): 그림 분석은 빠르지만, 그림을 너무 많은 '조각 (토큰)'으로 잘라서 준비 단계가 엄청나게 길어집니다. (마치 그림을 10,000 조각으로 잘라서 퍼즐을 맞추느라 시간이 걸리는 경우)
  • 결론: 모델마다 전기를 먹는 '주범'이 다릅니다. 그래서 "모든 AI 에게 똑같은 전기 절약법을 적용하면 안 된다"는 것을 발견했습니다.

3. 실체 확인: GPU 는 실제로 어떻게 일하고 있을까?

연구진은 AI 가 작동할 때 그래픽 카드 (GPU) 의 전력 소모를 실시간으로 지켜봤습니다.

  • 텍스트만 처리할 때: GPU 는 "일단 최고 속도로 달려라!" (고주파수) 상태로 빠르게 일을 끝내고 쉬는 패턴을 보입니다.
  • 그림이 들어올 때: GPU 는 중간중간 **"조금만 천천히 해도 될 것 같은 구간"**이 생깁니다. 그림을 분석하는 동안은 전력 소모가 낮게 유지되는데, AI 가 항상 최고 속도로 돌아가고 있어서 전기가 낭비되는 것입니다.
  • 비유: 택시 기사가 손님이 없는 빈 차를 타고도 항상 최고 속도로 달리는 것과 같습니다. 손님이 적은 구간에서는 속도를 줄여도 되는데, 그렇게 하지 않아서 연비가 나빠지는 것입니다.

4. 해결책: 상황에 맞는 '스마트한 속도 조절' (DVFS)

이 논문이 제안하는 가장 중요한 해결책은 **'단계별 전압 및 주파수 조절 (DVFS)'**입니다.

  • 기존 방식: AI 가 일을 시작하면 처음부터 끝까지 최고 속도로 돌립니다.
  • 새로운 제안:
    • 그림을 분석할 때는 속도를 조금 줄여서 전기를 아낍니다. (전기가 덜 들지만, 그림 분석은 시간이 좀 더 걸려도 괜찮음)
    • 정답을 쓸 때는 속도를 높여서 빠르게 응답합니다.
  • 효과: 이 방법을 쓰면 성능은 거의 떨어지지 않으면서 전기는 크게 아낄 수 있습니다. 마치 등산을 할 때, 가파른 길에서는 숨을 고르며 천천히 가고, 평지에서는 빠르게 걷는 것과 같습니다.

5. 요약 및 시사점

이 연구는 우리에게 다음과 같은 교훈을 줍니다.

  1. AI 는 모델마다 '식성'이 다릅니다. 어떤 모델은 그림을 보는 데 전기를 많이 먹고, 어떤 모델은 그림을 정리하는 데 많이 먹습니다.
  2. 무조건 빠른 게 답은 아닙니다. 그림을 분석할 때는 속도를 조금 늦추는 게 오히려 전기세와 환경에 좋습니다.
  3. 미래의 AI 서비스: 앞으로 AI 를 운영할 때는 "이 요청에는 어떤 그림이 들어왔나?", "어떤 모델을 쓰는가?"를 보고 실시간으로 전기 사용 전략을 바꿔야 합니다.

한 줄 요약:

"AI 가 그림을 볼 때 전기가 너무 많이 나갑니다. 이제부터는 그림을 분석할 때는 속도를 줄이고, 글을 쓸 때만 속도를 높이는 '스마트한 운전'을 해야 전기를 아낄 수 있습니다."