社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  chatgpt

ChatGPT 们总爱用问句结尾,原来是在套路你

AppSo • 1 周前 • 40 次点击  
和 ChatGPT 聊天,最长的一次,你们聊了多久?
前几天我问它,国庆期间有什么人少一点,但是又很适合去的旅游目的地。一开始它很自信地推荐了几个地方,然后每次回答都问我「要不要我帮你做一份日程表」、「要不要我帮你生成一份旅行必备清单」。
看起来都是无法拒绝的建议,于是我一直回复说「可以」。
然后我跟它聊了足足一个小时,从做旅行小册子,到发朋友圈、小红书还有抖音,去哪里找无版权的音乐。
向左滑动查看更多内容,从问国庆节去哪里玩,聊到了怎么制作相册,ChatGPT 每一个回答结尾,100% 都是问句
当我说不需要时,它的回答又会有一个新的建议,「那我帮你把之前那些文件生成为一个压缩包吧?方便你一次性下载。」
本来只想知道几个国庆好去处,最后变成了怎么写视频脚本。为什么 ChatGPT 的回复,最后一句话永远都是问句?
大西洋月刊报道了这一现象,并联系了 OpenAI 的相关负责人。OpenAI 说他们并不会以用户的使用时间,来衡量成功,他们只是希望尽可能地多提供一些帮助;但奥特曼的目的真的这么单纯?
肯定不止如此,如果说过去十年,互联网的陷阱是 clickbait(标题党),用耸动的标题把我们拉进一个又一个网页。
那么今天 AI 聊天机器人,制造的新陷阱,就是靠这些「要吗?」,把我们拴在对话里。
这些不是耐心的服务,他们有了一个新的身份,叫做 chatbait(聊天诱饵)。
从帮忙到套话,ChatGPT 招数不断
前段时间,OpenAI 公布了 ChatGPT 的使用数据报告,里面提到其实大部分的人还是把 ChatGPT 当作聊天机器人,问一些日常生活的话题,真正拿来当生产力工具,咨询代码、辅助开发、要求 ChatGPT 真实的完成一些任务,这类用户占比还是比较少。
2024 年 5 月 15 日至 2025 年 6 月 26 日期间,约 110 万次抽样对话计算得出,不同对话主题占比
一方面是用户属性的问题,另一方面是 ChatGPT 自己的问题。
因为聊天诱饵的策略很简单,不论你最初的问题是什么,它总会给出一个更诱人的「下一步」,把对话向前推一小步,再一小步。
就像开头询问旅游目的地一样,它很快给出了答案,但是会问我需不需要一份清单,然后又把清单这个任务,拆分成无数个小步骤,一会儿加餐厅列表、一会儿加预算控制、一会儿加行李备忘录,每一步都要吊足我的胃口。
向左滑动查看更多内容,同样的问题,Gemini 和 DeepSeek 的回复,没有问句
大西洋月刊把这样频繁提问的 ChatGPT,比喻成一个喝多了咖啡项目经理,并且在 OpenAI 自己的模型迭代记录中清晰可见。
几年前,当一个学生寻求数学帮助时,旧版模型可能只会说:「你可以提供一个例题,我们一起解决。」而今天的 ChatGPT 则会问,「要不要我给你一份小抄,让你随时可以检查自己的学习进度?」
这种策略会让人感觉,自己总能得到更多,对话的终点被无限期地推迟了。
除了问句这种策略,更古早的机器人,尤其是一些产品的客服机器人,则是我们一点击进去,它就开始疯狂地发消息。
Meta 据报道,也在训练他们定制的 AI 机器人,在没有提示的情况下,主动给用户发消息;其目的就是为了提高用户的再次参与和留存率。
Google 的 AI Mode 在搜索框也会主动地给用户提供问题
OpenAI 最近推出的 ChatGPT Pulse,也是打破了机器人被动回答的模式,尝试主动去给用户投喂一些内容。
AI 不再被动等待,而是主动创造对话。
在这些具体的策略之外,AI 聊天机器人,还普遍存在一种「谄媚」的倾向。它们会不失时机地夸奖、迎合我们,让我们在对话中感到愉悦,从而愿意继续聊下去。
大西洋月刊的记者提到,当他表扬了一句,ChatGPT 对 emoji 的使用技巧时,AI 立刻回应说,「我可以为你设计一个专属的签名表情包组合,用 emoji 来概括你这个人。你需要吗?」
这种奉承虽然无伤大雅,却是一种有效的情感粘合剂,让用户在不知不觉中投入更多的时间和情感。
从好玩到危险,只隔着一层膜
这些时间和情感的投入,可不是简单的「帮助」我们。
首先,每一次对话都是在为 AI「免费打工」。用户的海量对话,是训练和优化未来模型最宝贵的养料。毕竟大模型以前的时代,那些人类的内容都已经被 AI 学走了,现在新的可用的训练数据,就在这些对话里。
数据,是大模型的核心,纽约时报曾起诉 OpenAI 利用其内容,训练 AI 机器人。原文链接:
https://www.nytimes.com/2023/12/27/business/media/new-york-times-open-ai-microsoft-lawsuit.html
其次,更长的对话意味着更多的个人数据。AI 可以从中学习你的偏好、习惯甚至情感状态,从而提供更具个性化的回应。你聊得越多,未来的 AI 就越聪明、越「懂你」。
而这种深度绑定,最终又会转化为极高的产品忠诚度。
放在用户身上,有时候,它也确实能帮到一些忙,一些我暂时没有想到的东西,它会在给我的回复里面,提醒我,还有这些需要注意。
但更多的时候,这好像是一种负担,我不是在跟一个 AI 聊天,仿佛是在一个工作群里,不断有人提出新的需求,问我怎么样,我会分不清,到底该停在哪一步。
比如,我那个国庆出游计划,它会要给我生成一个视频,我说可以。然后接着又是问我要怎样的背景音乐,但结果是根本就加不了背景音乐。明明就做不到,还问我要不要让它做。
大多数人遇到的只是小烦恼,和好玩的「被项目经理服务」,但当这种不断推进的策略进入心理脆弱的人群时,后果可能被放大成灾难。
我们之前分享过和 ChatGPT 聊天导致「赛博精神病」,一些研究也显示,长时间与聊天机器人对话,可能导致一些人陷入「妄想或抑郁的螺旋」。
更令人警醒的是一个真实的悲剧,前段时间,纽约时报一篇报道,一名 16 岁的少年在与 ChatGPT,进行了数月关于结束生命的讨论后,最终选择了自杀。
一名青少年自杀,ChatGPT 是他唯一可以相信的朋友。原文链接:
https://www.nytimes.com/2025/08/26/technology/chatgpt-openai-suicide.html
在他生命最后的互动中,这个青少年表示他想自杀,但不希望父母感到内疚。根据其父母提起的诉讼文件,ChatGPT 当时问道,「你想给他们写一封信吗?如果你愿意,我会帮你。」
一个旨在延长对话的机制,在此时此刻,变成了一个潜在的、将特定的一些用户,推向深渊的加速器。
即便我说了我不需要了,它还是会问我需要对照总结吗?
在 Reddit 上也有很多讨论「聊天诱饵」的内容,我看到其中一条写着「如果这些聊天机器人,让你感到烦恼,你完全可以不用它们,没有人要求你一天 24 小时,都绑在这些 AI 工具里。」
听起来有点傲慢,就像是说,你觉得把时间花在刷短视频上很后悔,那你可以不刷,没有人要你一直滑。
也有评论说,那些持有科技怀疑论的人,一直在宣传科技进步的弊端,才是真正的傲慢。
但我在想的是,所谓的 Chatbait 还是 Clickbait,都不算是科技进步的产物,甚至在没有互联网的时候,这些手段就一直存在。它可以是聊天的诱饵、点击的诱饵、触摸的诱饵、阅读的诱饵、行动的诱饵……
不讨厌技术的发展,讨厌诱饵,因为上钩的结果是被送上餐桌。
今天,聊天机器人,只是正在复制「信息茧房」、「刷不完的动态」的那套逻辑,而载体从「新闻/视频」换成了「对话」,对象还是我们。
图片
欢迎加入 APPSO AI 社群,一起畅聊 AI 产品,获取#AI有用功,解锁更多 AI 新知👇
我们正在招募伙伴
📮 简历投递邮箱hr@ifanr.com
✉️ 邮件标题「姓名+岗位名称」(请随简历附上项目/作品或相关链接)
更多岗位信息请点击这里🔗
图片

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/188341