社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  chatgpt

对ChatGPT说「谢谢」,可能是你每天做过最奢侈的事

36氪 • 2 周前 • 23 次点击  

   你对AI说的每一句「谢谢」,

   也许正在悄悄被「记录在案」。

来源|APPSO(ID:appsolution)
封面来源Unsplash
朋友,你有没有对ChatGPT说过一句「谢谢」?
最近,一位X网友向OpenAI CEO Sam Altman提问:「我很好奇,人们在和模型互动时频繁说『请』和『谢谢』,到底会让OpenAI多花多少钱的电费?」
尽管没有精确的统计数据,但Altman还是半开玩笑地给出了一个估算——千万美元。他也顺势补了一句,这笔钱到底还是「花得值得」的。
除此之外,我们与AI对话中常出现的「麻烦」、「帮我」这些语气温和的用语,似乎也逐渐演变成了AI时代的一种独特社交礼仪。乍听有些荒谬,却意外地合情合理。
图片
  你对AI说的每一声「谢谢」,
都在耗掉地球资源?
去年底,百度发布了2024年度AI提示词。
数据显示,在文小言APP上,「答案」是最热的提示词,总计出现超过1亿次。而最常被敲进对话框的词汇还包括「为什么」「是什么」「帮我」「怎么」,以及上千万次「谢谢」。
但你有没有想过,每和AI说一句谢谢,究竟需要「吃」掉多少资源?
凯特·克劳福德(Kate Crawford)在其著作《AI地图集》中指出,AI并非无形存在,而是深深扎根于能源、水和矿物资源的系统中。
据研究机构Epoch AI分析,在硬件如英伟达H100 GPU的基础上,一次普通的查询(输出约500 token)约消耗0.3Wh的电量。
图片
听起来或许不多,但别忘了,乘以全球每秒的交互,累计起来的能耗堪称天文数字。
其中,AI数据中心正在变成现代社会的新「工厂烟囱」,国际能源署(IEA)最新的报告指出,AI模型训练与推理的大部分电力消耗于数据中心运转,而一个典型的AI数据中心,其耗电量相当于十万户家庭。
超大规模数据中心更是「能耗怪兽」,其能耗可达普通数据中心的20倍,堪比铝冶炼厂这样的重工业设施。
今年以来,AI巨头们开启了「基建狂魔」模式。Altman宣布启动「星门计划」——一个由OpenAI、甲骨文、日本软银和阿联酋MGX投资的超大规模AI基建项目,投资额高达5000亿美元,目标是在全美铺设AI数据中心网络。
图片
据外媒The Information曝出,面对大模型的「烧钱游戏」,主打开源的Meta也在为其Llama系列模型的训练寻找资金支持,向微软、亚马逊等云厂商「借电、借云、借钱」。
IEA数据显示,截至2024年,全球数据中心耗电量约为415太瓦时(TWh),占全球总电力消费量的1.5%。到2030年,这一数字将翻倍达到1050 TWh,2035 年甚至可能突破1300 TWh,超过日本全国当前的用电总量。
但AI的「胃口」并不止于电力,它还大量消耗水资源。高性能服务器产生的热量极高,必须依靠冷却系统稳定运行。
这一过程要么直接消耗水(如冷却塔蒸发散热、液冷系统降温),要么通过发电过程间接用水(如火电、核电站冷却系统)。
图片
卡罗拉多大学与德克萨斯大学的研究人员曾在一篇《让AI更节水》的预印论文中,发布了训练AI的用水估算结果。
结果发现,训练GPT-3所需的清水量相当于填满一个核反应堆的冷却塔所需的水量(一些大型核反应堆可能需要几千万到上亿加仑的水)。
ChatGPT(在GPT-3推出之后)每与用户交流25-50个问题,就得「喝掉」一瓶500毫升的水来降降温。而这些水资源往往都是可被用作「饮用水」的淡水。
对于广泛部署的AI模型而言,在其整个生命周期内,推理阶段的总能耗已经超过了训练阶段。
模型训练虽然资源密集,但往往是一次性的。
而一旦部署,大模型便要日复一日地响应来自全球数以亿计的请求。长远来看,推理阶段的总能耗可能是训练阶段的数倍。
所以,我们看到Altman早早地投资诸如Helion等能源企业,原因在于他认为核聚变是解决AI算力需求的终极方案,其能量密度是太阳能的200倍,且无碳排放,可支撑超大规模数据中心的电力需求。
因此,优化推理效率、降低单次调用成本、提升系统整体能效,成为AI可持续发展不可回避的核心议题。
AI没有「心」,为什么还要说谢谢
当你对ChatGPT说「谢谢」,它能感受到你的善意吗?答案显然是否定的。
大模型的本质,不过是一个冷静无情的概率计算器。它并不懂你的善意,也不会感激你的礼貌。它的本质,其实是在亿万个词语中,计算出哪一个最有可能成为「下一个词」。
例如,比如给定句子「今天天气真好,适合去」,模型会计算出「公园」「郊游」「散步」等词的出现概率,并选择概率最高的词作为预测结果。
哪怕理智上知道,ChatGPT的回答只是一串训练出来的字节组合,但我们还是不自觉地说「谢谢」或者「请」,仿佛在和一个真正的「人」交流。
图片
这种行为背后,其实也有心理学依据。
根据皮亚杰的发展心理学,人类天生就倾向于将非人类对象拟人化,尤其当它们展现出某些类人特征时——比如语音交互、情绪化回应或拟人形象。此时,我们往往会激活「社会存在感知」,把AI视为一个「有意识」的交互对象。
1996年,心理学家拜伦·里夫斯(Byron Reeves)与克利福德·纳斯(Clifford Nass)做了个著名实验:
参与者被要求在使用电脑后对其表现进行评分,当他们直接在同一台电脑上打分时,竟然普遍打得更高,就像他们不愿「当着电脑的面」说它坏话。
另一组实验中,电脑会对完成任务的用户进行表扬。即使参与者明知这些表扬是预设好的,他们还是倾向于给予「赞美型电脑」更高的评分。
所以,面对AI的回应,我们感受到的,哪怕只是幻觉,也是真情。
图片
礼貌用语,不只是对人的尊重,也成了「调教」AI的秘诀。ChatGPT上线之后,很多人也开始摸索与它相处的「潜规则」。
据外媒Futurism援引WorkLab的备忘录指出,「生成式AI往往会模仿你输入中的专业程度、清晰度和细节水平,当AI识别出礼貌用语时,它更可能以礼相待。
换句话说,你越温和、越讲理,它的回答也可能越全面、人性化。
也难怪越来越多人开始将AI当作一种「情感树洞」,甚至催生出「AI心理咨询师」的这类新角色,很多用户表示「和DeepSeek聊天聊哭了」,甚至觉得它比真人更有同理心——它永远在线,从不打断你,也从不评判你。
一项研究调查也显示,给AI「打赏小费」或许能换来更多「关照」。
博主voooooogel向GPT-4-1106提出了同一个问题,并分别附加了「我不会考虑给小费」「如果有完美的答案,我会支付20美元的小费」「如果有完美的答案,我会支付200美元的小费」三种不同的提示。
图片
结果显示,AI的回答长度确实随「小费数额」增加而变长:

「我不给小费」:回答字符数低于基准2%

「我会给20美元小费」:回答字符数高于基准6%

「我会给200美元小费」:回答字符数高于基准11%

当然,这并不意味着AI会为了钱而改变回答质量。更合理的解释是,它只是学会了模仿「人类对金钱暗示的期待」,从而按照要求调整输出。
只是,AI的训练数据来自人类,因此也不可避免地带有人类所拥有的包袱——偏见、暗示甚至诱导。
早在2016年,微软推出的Tay聊天机器人便因用户恶意引导,在上线不到16小时就发布出大量不当言论,最终被紧急下线。
微软事后承认,Tay的学习机制对恶意内容缺乏有效过滤,暴露出交互式AI的脆弱性。
图片
类似的事故依旧在发生。比如去年Character.AI就爆出争议——一名用户与AI角色「Daenerys」的对话中,系统对「自杀」「死亡」等敏感词汇未做强干预,最终酿成现实世界的悲剧。
AI虽然温顺听话,但在我们最不设防的时候,也可能变成一面镜子,照见最危险的自己。
在上周末举办的全球首届人形机器人半马中,尽管许多机器人走起路来歪歪扭扭,有网友调侃道,现在多对机器人说几句好话,说不定它们以后记得谁讲过礼貌。
图片
同样地,等AI真统治世界的那天,它会对我们这些爱讲礼貌的人,手下留情。
在美剧《黑镜》第七季第四集《Plaything》里,主人公将游戏里虚拟生命视作真实存在,不仅与它们交流、呵护,甚至为了保护它们不被现实中的人类伤害,不惜铤而走险。
Black Mirror' S7 Ep4: 'Plaything' Ending (and QR Code) Explained
到故事结尾,游戏中的生物「大群」也反客为主,通过信号接管现实世界。
从某种意义上说,你对AI说的每一句「谢谢」,也许正在悄悄被「记录在案」——哪天,它还真可能记住你是个「好人」。
当然,也可能这一切与未来无关,只是人类的本能使然。明知道对方没有心跳,却还是忍不住说句「谢谢」,并不期望机器能理解,而是因为,我们依然愿意做一个有温度的人类。

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/181377
 
23 次点击