
你对AI说的每一句「谢谢」,
也许正在悄悄被「记录在案」。
最近,一位X网友向OpenAI CEO Sam Altman提问:「我很好奇,人们在和模型互动时频繁说『请』和『谢谢』,到底会让OpenAI多花多少钱的电费?」尽管没有精确的统计数据,但Altman还是半开玩笑地给出了一个估算——千万美元。他也顺势补了一句,这笔钱到底还是「花得值得」的。除此之外,我们与AI对话中常出现的「麻烦」、「帮我」这些语气温和的用语,似乎也逐渐演变成了AI时代的一种独特社交礼仪。乍听有些荒谬,却意外地合情合理。数据显示,在文小言APP上,「答案」是最热的提示词,总计出现超过1亿次。而最常被敲进对话框的词汇还包括「为什么」「是什么」「帮我」「怎么」,以及上千万次「谢谢」。但你有没有想过,每和AI说一句谢谢,究竟需要「吃」掉多少资源?凯特·克劳福德(Kate Crawford)在其著作《AI地图集》中指出,AI并非无形存在,而是深深扎根于能源、水和矿物资源的系统中。据研究机构Epoch AI分析,在硬件如英伟达H100 GPU的基础上,一次普通的查询(输出约500 token)约消耗0.3Wh的电量。听起来或许不多,但别忘了,乘以全球每秒的交互,累计起来的能耗堪称天文数字。其中,AI数据中心正在变成现代社会的新「工厂烟囱」,国际能源署(IEA)最新的报告指出,AI模型训练与推理的大部分电力消耗于数据中心运转,而一个典型的AI数据中心,其耗电量相当于十万户家庭。超大规模数据中心更是「能耗怪兽」,其能耗可达普通数据中心的20倍,堪比铝冶炼厂这样的重工业设施。今年以来,AI巨头们开启了「基建狂魔」模式。Altman宣布启动「星门计划」——一个由OpenAI、甲骨文、日本软银和阿联酋MGX投资的超大规模AI基建项目,投资额高达5000亿美元,目标是在全美铺设AI数据中心网络。据外媒The Information曝出,面对大模型的「烧钱游戏」,主打开源的Meta也在为其Llama系列模型的训练寻找资金支持,向微软、亚马逊等云厂商「借电、借云、借钱」。IEA数据显示,截至2024年,全球数据中心耗电量约为415太瓦时(TWh),占全球总电力消费量的1.5%。到2030年,这一数字将翻倍达到1050 TWh,2035 年甚至可能突破1300 TWh,超过日本全国当前的用电总量。但AI的「胃口」并不止于电力,它还大量消耗水资源。高性能服务器产生的热量极高,必须依靠冷却系统稳定运行。这一过程要么直接消耗水(如冷却塔蒸发散热、液冷系统降温),要么通过发电过程间接用水(如火电、核电站冷却系统)。卡罗拉多大学与德克萨斯大学的研究人员曾在一篇《让AI更节水》的预印论文中,发布了训练AI的用水估算结果。结果发现,训练GPT-3所需的清水量相当于填满一个核反应堆的冷却塔所需的水量(一些大型核反应堆可能需要几千万到上亿加仑的水)。ChatGPT(在GPT-3推出之后)每与用户交流25-50个问题,就得「喝掉」一瓶500毫升的水来降降温。而这些水资源往往都是可被用作「饮用水」的淡水。对于广泛部署的AI模型而言,在其整个生命周期内,推理阶段的总能耗已经超过了训练阶段。而一旦部署,大模型便要日复一日地响应来自全球数以亿计的请求。长远来看,推理阶段的总能耗可能是训练阶段的数倍。所以,我们看到Altman早早地投资诸如Helion等能源企业,原因在于他认为核聚变是解决AI算力需求的终极方案,其能量密度是太阳能的200倍,且无碳排放,可支撑超大规模数据中心的电力需求。因此,优化推理效率、降低单次调用成本、提升系统整体能效,成为AI可持续发展不可回避的核心议题。当你对ChatGPT说「谢谢」,它能感受到你的善意吗?答案显然是否定的。大模型的本质,不过是一个冷静无情的概率计算器。它并不懂你的善意,也不会感激你的礼貌。它的本质,其实是在亿万个词语中,计算出哪一个最有可能成为「下一个词」。例如,比如给定句子「今天天气真好,适合去」,模型会计算出「公园」「郊游」「散步」等词的出现概率,并选择概率最高的词作为预测结果。哪怕理智上知道,ChatGPT的回答只是一串训练出来的字节组合,但我们还是不自觉地说「谢谢」或者「请」,仿佛在和一个真正的「人」交流。根据皮亚杰的发展心理学,人类天生就倾向于将非人类对象拟人化,尤其当它们展现出某些类人特征时——比如语音交互、情绪化回应或拟人形象。此时,我们往往会激活「社会存在感知」,把AI视为一个「有意识」的交互对象。1996年,心理学家拜伦·里夫斯(Byron Reeves)与克利福德·纳斯(Clifford Nass)做了个著名实验:参与者被要求在使用电脑后对其表现进行评分,当他们直接在同一台电脑上打分时,竟然普遍打得更高,就像他们不愿「当着电脑的面」说它坏话。另一组实验中,电脑会对完成任务的用户进行表扬。即使参与者明知这些表扬是预设好的,他们还是倾向于给予「赞美型电脑」更高的评分。所以,面对AI的回应,我们感受到的,哪怕只是幻觉,也是真情。礼貌用语,不只是对人的尊重,也成了「调教」AI的秘诀。ChatGPT上线之后,很多人也开始摸索与它相处的「潜规则」。据外媒Futurism援引WorkLab的备忘录指出,「生成式AI往往会模仿你输入中的专业程度、清晰度和细节水平,当AI识别出礼貌用语时,它更可能以礼相待。」换句话说,你越温和、越讲理,它的回答也可能越全面、人性化。也难怪越来越多人开始将AI当作一种「情感树洞」,甚至催生出「AI心理咨询师」的这类新角色,很多用户表示「和DeepSeek聊天聊哭了」,甚至觉得它比真人更有同理心——它永远在线,从不打断你,也从不评判你。一项研究调查也显示,给AI「打赏小费」或许能换来更多「关照」。博主voooooogel向GPT-4-1106提出了同一个问题,并分别附加了「我不会考虑给小费」「如果有完美的答案,我会支付20美元的小费」「如果有完美的答案,我会支付200美元的小费」三种不同的提示。结果显示,AI的回答长度确实随「小费数额」增加而变长:「我不给小费」:回答字符数低于基准2%
「我会给20美元小费」:回答字符数高于基准6%
「我会给200美元小费」:回答字符数高于基准11%
当然,这并不意味着AI会为了钱而改变回答质量。更合理的解释是,它只是学会了模仿「人类对金钱暗示的期待」,从而按照要求调整输出。只是,AI的训练数据来自人类,因此也不可避免地带有人类所拥有的包袱——偏见、暗示甚至诱导。早在2016年,微软推出的Tay聊天机器人便因用户恶意引导,在上线不到16小时就发布出大量不当言论,最终被紧急下线。微软事后承认,Tay的学习机制对恶意内容缺乏有效过滤,暴露出交互式AI的脆弱性。类似的事故依旧在发生。比如去年Character.AI就爆出争议——一名用户与AI角色「Daenerys」的对话中,系统对「自杀」「死亡」等敏感词汇未做强干预,最终酿成现实世界的悲剧。AI虽然温顺听话,但在我们最不设防的时候,也可能变成一面镜子,照见最危险的自己。在上周末举办的全球首届人形机器人半马中,尽管许多机器人走起路来歪歪扭扭,有网友调侃道,现在多对机器人说几句好话,说不定它们以后记得谁讲过礼貌。同样地,等AI真统治世界的那天,它会对我们这些爱讲礼貌的人,手下留情。在美剧《黑镜》第七季第四集《Plaything》里,主人公将游戏里虚拟生命视作真实存在,不仅与它们交流、呵护,甚至为了保护它们不被现实中的人类伤害,不惜铤而走险。到故事结尾,游戏中的生物「大群」也反客为主,通过信号接管现实世界。从某种意义上说,你对AI说的每一句「谢谢」,也许正在悄悄被「记录在案」——哪天,它还真可能记住你是个「好人」。当然,也可能这一切与未来无关,只是人类的本能使然。明知道对方没有心跳,却还是忍不住说句「谢谢」,并不期望机器能理解,而是因为,我们依然愿意做一个有温度的人类。


