The Price of Prompting: Profiling Energy Use in Large Language Models Inference

本文提出了名为 MELODI 的监控框架及相应数据集,旨在分析大语言模型推理过程中的能耗特征,揭示了提示词属性与能源消耗之间的关联,并为推动可持续的模型部署提供了关键工具与资源。

Erik Johannes Husom, Arda Goknil, Lwin Khin Shar, Sagar Sen

发布于 2026-03-04
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这是一篇关于**“大语言模型(LLM)在回答问题时到底消耗了多少电”**的研究论文。

想象一下,现在的 AI 就像是一个超级聪明的**“数字大脑”**。当你问它一个问题(比如“写一首诗”或“解释量子力学”),它需要动脑筋(计算)来生成答案。这篇论文的核心发现是:这个“动脑筋”的过程非常耗电,而且不同情况下耗电量天差地别。

为了搞清楚这个问题,作者们发明了一个叫 MELODI 的“智能电表”。下面我用几个生活中的比喻来为你拆解这篇论文:

1. 为什么要研究这个?(背景)

现在的 AI 越来越火,从写代码到陪聊,无处不在。但大家往往只关注它“聪不聪明”,却忽略了它“吃多少电”。

  • 比喻:就像我们买车,以前只关心车跑得快不快,现在发现如果每辆车都喝油像老虎一样,那地球就受不了了。AI 的“训练”(学习阶段)虽然很耗电,但“推理”(日常回答问题)因为使用次数太多,累积起来的电费更是惊人。

2. 他们做了什么?(MELODI 工具)

以前的测量工具就像是在整个大楼的总电表上读数,你没法知道具体是哪台空调、哪台电脑在耗电。

  • MELODI 的创新:它就像给 AI 的每一个“思考过程”都装上了独立的微型电表
    • 它同时盯着 CPU(大脑的通用部分)和 GPU(大脑的专用加速器)。
    • 它非常细心,会在 AI 开始思考前和结束后多等一小会儿(就像等电梯门完全关上再按楼层),确保没有漏掉任何一点电力消耗。
    • 结果:他们收集了海量的数据,记录了不同模型、不同电脑(从笔记本到超级服务器)在回答不同问题时到底用了多少电。

3. 他们发现了什么?(核心发现)

A. 模型越大,越“费油”

  • 发现:那些拥有几百亿参数(大脑神经元)的巨型模型,每生成一个词(Token),耗电量是小型模型的100 倍
  • 比喻:这就好比开一辆重型卡车(70B 大模型)去送一份小快递(简单的回答),和开一辆电动自行车(2B 小模型)去送同样的快递。卡车虽然能拉更多,但为了送这一份快递,它烧的油是电动车的 100 倍。

B. 答案越长,电费越贵

  • 发现:决定耗电量最大的因素,不是你的问题有多难,而是AI 回答得有多长
  • 比喻:如果你问 AI“今天天气好吗?”,它只回“是”,这很省电。如果你让它“写一个关于天气的 5000 字小说”,它就要不停地“打字”,每打一个字都要消耗能量。回答的长度是耗电量的“晴雨表”

C. 提示词(Prompt)不重要,硬件很重要

  • 发现:你问问题的方式(是简单还是复杂),对耗电量的影响微乎其微。但是,你在什么设备上运行影响巨大。
  • 比喻
    • 提示词:就像你给厨师的订单,是写“做碗面”还是“做碗面(加个蛋)”,对厨房总耗电量影响不大。
    • 硬件:就像是在老旧的台式电脑(笔记本)上运行,还是在一台专业的超级工作站上运行。研究发现,在笔记本上跑 AI,往往比在专业工作站上更费电、效率更低。这就好比用一把生锈的钝刀切菜,比用锋利的专业刀具更费力(更耗电)。

4. 他们能预测吗?(预测模型)

作者们发现了一个惊人的规律:只要知道**“回答有多长”“用的是哪个模型”以及“在哪台电脑上跑”,就能以99.6%**的准确率预测出这次对话会消耗多少电。

  • 比喻:这就像你走进加油站,只要告诉店员你要开多远(回答长度)、开什么车(模型类型)、路况如何(硬件),店员就能精准算出你要加多少油。

5. 为什么这很重要?(结论与启示)

  • 别被“大”冲昏头脑:并不是模型越大越好。如果你只是问个简单问题,用个几百亿参数的大模型简直是“杀鸡用牛刀”,既浪费钱又浪费电。
  • 控制回答长度:如果你想省电,最直接的方法就是限制 AI 的回答长度。
  • 选对设备:在笔记本电脑上跑 AI 可能比在专业服务器上更费电,因为笔记本的散热和供电效率可能不如专业设备。
  • 工具更准了:作者们还发现,以前很多测量工具(像 CodeCarbon 等)测出来的数据误差很大,有的甚至把背景噪音也算进去了。MELODI 这种“独立电表”测得更准,能帮我们要看清真相。

总结

这篇论文就像给 AI 行业做了一次**“体检”。它告诉我们:AI 很强大,但也很“费电”。 想要让 AI 更环保、更可持续,我们不需要等到未来,现在就可以通过“选对模型”“控制回答长度”“选对硬件”**来立刻节省大量能源。

这就好比我们开始养成随手关灯的好习惯,对于 AI 来说,就是**“按需分配算力,拒绝大材小用”**。