
![]()
![]()
![]()
![]()
撰文 菡萏
前几天,ChatGPT 首次面向用户推出了“年度使用报告”,和国内各大 APP 走起了相同路线。在这份“年终总结”里,用户不仅可以看到自己过去一年和 ChatGPT 对话多少次,聊了些什么,倾诉欲爆棚(or 工作量爆棚)是哪一天,还能看到自己“对待”这个 AI 工作助手/学术导师/精神伴侣/情绪沙包/导购主播 etc...的语言风格。这种直面自己最真实需求的回顾,很多时候准确得惊人。比如此时正在写下这句话的我,也不得不承认 ChatGPT 严选的年度代表性对话直击痛点,一个为流量奔波操劳的新媒体牛马形象跃然纸上:不过你有没有想过,今年我们和 ChatGPT 一起浪费的这些 Token 聊出来的成果,消耗了多少能源?
AI 能耗谜团
随着人工智能(AI)技术在日常应用中的普及,研究者开始关注一个鲜少被普通用户直观感知的重要课题:AI 在生成内容时实际消耗了多少能量,以及这些消耗如何随着输出内容的长度和类型而变化。近日,AI World 网站发布的一份数据分析揭示了输出长度如何显著影响 AI 的能源足迹。这份分析基于 Hugging Face 推出的 AI 能源得分排行榜,对不同模型类别在相同数量查询(如每 1000 次)下的 GPU 能耗进行了比较。结果显示,不同模型的能耗差异极大:一些高复杂度的推理模型(reasoning models)在执行任务时的能耗远高于简单文本生成模型。
例如,LGAI-Exaone 研发的 Exaone-4.0-32B 每千次查询耗电 18.99 千瓦时,相当于为智能手机充电 700 次(15 千瓦时),或让 10 瓦 LED 灯泡持续点亮约六周(10 千瓦时);OpenAI 的 Gpt-oss-120b 每千次查询消耗 8.50 千瓦时,足以将 1.5 升家用水壶烧开约 70 次。如果按照这个数据做一个不恰当的推算,过去一年中我与 ChatGPT 发生 1000 次对话所消耗的电能,大约能够给手机充电至少 500 次。与之形成鲜明对比的是,并非所有 AI 在完成任务时都背负着沉重的能源负担。例如微软的 resnet-18 每处理 1000 次查询仅耗电 0.0026 千瓦时,而文本生成模型中能效最低的 distilgpt2 每千次查询耗电量仅为 0.00131 千瓦时,相当于给智能手机充电约 6.5% 的电量,或相当于标准电水壶烧水一分钟的耗电量(0.12 千瓦时)。这种差异的关键因素在于输出长度和任务复杂性。推理模型通常生成更长、更详细的回答或分步解释,其输出令处理器在更长时间内保持运算状态,从而提高了总体能耗。而标准文本生成模型倾向于给出更简洁、直接的回复,这意味着较低的输出长度和较少的计算周期,从而减少了能量使用。当然,这种差异说明不能简单地以模型规模或参数数量来评估 AI 能耗,而必须结合任务类型、输出长度和实际使用场景来全面衡量。长输出(如详细解释或复杂推理)的能耗累积效应尤其明显,在大规模应用和高频查询环境中,其整体能源和碳足迹潜力显著提升。总体而言,AI 输出的能耗不仅与模型本身的结构有关,更受输出长度和任务类型的显著影响。对于学界和业界来说,如何在不牺牲用户体验的前提下进一步压缩能源使用,将是我们这个亟需完成绿色能源转型的社会共同关注的重要课题。根据“科研圈”在小红书平台的(非常)不完全调研,中文世界的人们都是这样使用 ChatGPT 的。首先,大家对这位 AI 助手的能力似乎也没那么满意:不过,学生们还是愿意把 TA 当成“对师宝具”使用:学术群体则可能在与 TA 的交流中经历一个完整的“发现-质疑”周期:TA 是职场牛马们最可靠的伙伴和职业发展咨询对象:算法不太灵光的时候,也让很多人体会了一把逐渐破防的心路历程:当然,也有将言简意赅做到极致的用户,最常用的提示词就是这么简单高效:本文来自微信公众号“环球科学科研圈”。如需转载,请在后台回复“转载”,或通过公众号菜单与我们取得联系。相关内容禁止用于营销宣传。
凡本公众号转载、引用的文章 、图片、音频、视频文件等资料的版权归版权所有人所有,因此产生相关后果,由版权所有人、原始发布者和内容提供者承担,如有侵权请联系删除。
-电商广告-

戳图片立即订阅