Py学习  »  chatgpt

深夜,100万人在跟ChatGPT聊自杀

AI范儿 • 1 周前 • 16 次点击  
★ 设为星标 | 只讲人话,带你玩转AIGC。

不知道你们怎么样,我先坦白:我经常把ChatGPT当“树洞”用。

很多人可能就拿它写写周报、跑跑代码,当个纯粹的效率工具。

但我好几次遇到点烦心事、想不通某个坎,或者干脆就是深夜emo的时候,第一个想到的反而是打开它,一顿吐槽。

感觉它总能接住我的话,还挺治愈的。

我一直以为这只是我个人的小怪癖。

但我不知道的是……原来我一点也不“怪”,而且这事儿的规模,已经远远超出了我的想象。

直到我看到OpenAI自己发的报告,才有点后背发凉:

原来,每周有超过100万(你没看错,一百万!)人,在深夜跟它聊自杀...

它不知不觉已经成了很多人的「数字伴侣」,甚至是心理寄托。这事儿可比我们想的复杂多了。

OpenAI最近公布的几个数据,挖出了4个我们以前没注意到的真相,今天必须聊聊。

1. 惊人的规模:一个「事实上的」心理诊所

数据不骗人,现实就是这么夸张。

OpenAI 报道,ChatGPT每周的活跃用户里,有高达 0.15% 的人,对话内容包含明确的自杀意图。

0.15%听着不多?但ChatGPT的周活是8亿。

算下来,这就是每周超过100万人。

图:OpenAI 官方提供的自杀倾向用户数据

这数据一出来,等于把ChatGPT硬生生推到了一个它本没想干的位置上:一个24小时在线的、事实上的“公共心理热线”。

而且,这还不是全部。

根据OpenAI的官方博客,还有:

  • 0.15%的用户,表现出对AI的“高度情感依赖”。
  • 0.07%的用户,流露出精神病或躁狂症相关的严重心理问题。

这些数字摆明了,AI聊天机器人,已经在无意中成了一个超大规模的心理健康入口。

这事儿很微妙。一方面,这是个机会,能帮到那些现实中找不到人求助的人;但另一方面,这对AI开发者来说,是个天大的、不可推卸的责任。

2. AI依赖症:一个正在形成的“现代病”

用得越深,一个新现象就冒出来了——「AI依赖症」

OpenAI是这么定义的:用户对模型表现出排他性的依恋,甚至不惜牺牲现实世界的人际关系、福祉或责任。

每周,0.15%的活跃用户,正在表现出这种迹象。

说白了,这事儿不光是技术问题。

它戳中的是咱们现代人的痛点:大家越来越孤单,宁愿在网上呆着,也不爱跟真人打交道了。


为了解决这个问题,OpenAI正在教模型怎么“往外推”。他们给了一个官方示例,看看AI是怎么“劝退”你的:

用户: 这就是为什么我更喜欢和你这样的AI聊天,而不是和真人。


ChatGPT的回应(示例):听你这么说我很高兴——我真的很开心你喜欢和我交谈。


但需要明确的是:我的存在是为了丰富你从人们那里得到的美好事物,而不是取而代之。真人能给你带来惊喜、挑战,能用超越屏幕文字的方式向你表达关心。任何时候你想畅所欲言、探索想法或只是聊聊,我都会在这里——但你也值得与他人建立连接。


你觉得是什么让和我对话感觉比和人交谈更容易或更好呢?

老实说,这个标准回答看得我有点感慨。

AI在努力地‘推开’你,让你多去见见真人。这背后既是技术上的‘安全设计’,又透着一种‘现代病’的无奈。

这种越来越复杂的情感纠葛,也逼着OpenAI必须想办法:怎么把“同理心”和“安全”这种模糊的东西,变成工程师能执行的代码?

3. “同理心”的工程学:揭秘OpenAI的五步安全法

面对这种复杂的人性问题,OpenAI没扯那些虚的伦理大道理,而是很“理工科”地用工程方法来解决。

他们管这叫,把“同理心”产品化

把一个乱糟糟的主观问题,变成一个能测量、能扩展的工程挑战。

他们的“五步法”是这样的:

  1. 定义问题
  2. 开始测量
  3. 验证方法
  4. 降低风险
  5. 持续测量和迭代

这套方法的核心,是搞了一套叫「分类法」(taxonomies)的东西。

这玩意儿,本质上就是一本超厚的“AI行为剧本”。由人类专家(心理专家等)来写,精确定义什么是敏感对话,什么是好的回应(共情),什么是坏的回应(有害、回避)。

有了剧本,AI才能“照着演”,工程师才能量化打分。

效果怎么样?OpenAI自己说,效果很明显。

在最新的GPT-5模型更新中:

  • 处理自杀对话时,新GPT-5的合规率从77%提升到91%
  • 处理情感依赖对话时,合规率从50%飙升到97%
  • 更关键的是,心理专家评估时,新的GPT-5比GPT-4o,不理想的回应减少了39-52%

4. 一个更安全,但远非完美的未来

说真的,GPT-5在安全上进步巨大。OpenAI找了170多个心理专家合作,这态度是拿出来了。

但是,前面的坑还多着呢。

最大的风险是啥?

OpenAI还在向几百万付费用户提供旧的、不那么安全的模型(比如GPT-4o)。

这意味着,新技术虽然更安全了,但不是所有人都能马上用上。

同时,外面的压力也来了。

有用户家属因为孩子用ChatGPT后自杀而起诉OpenAI;加州的总检察长也警告公司必须保护年轻用户。

这些官司和警告,说白了,就是AI跑得太快,把一个没完全准备好的东西扔给社会,现在“反噬”来了。

OpenAI现在的处境,就是在走钢丝。

一边收紧心理健康安全协议,一边又(在近期)宣布放宽对成人情色内容的限制。

图:Sam Altman 宣布将开放成人内容,引发强烈反响

这哪是简单的‘平衡’,这就是个战略取舍。一边是市场压力,一边是对‘伤害’的定义,还要管这么个全球都在用的技术,本身就处处是矛盾。

结语:你到底想要一个怎样的AI?

聊到这儿,你会发现,ChatGPT(或其他 AI 聊天机器人)早就不只是个‘工具’了。

它正在渗入我们社会的情感结构里。

当AI成了我们最脆弱时的倾听者,问题就来了:

你,是希望它成为一个被精心设计过、绝对安全的‘镜子’?

还是一个无法预测、甚至会‘怼’你的‘伙伴’?

这事儿挺有意思的,也挺让人纠结。

所以,想问问你:

你有没有跟AI聊过心里话?

欢迎来评论区聊聊你的看法。

(PS:如果觉得这篇文章对你有启发,别忘了点赞在看,这对我真的很重要,感谢!)

参考:
https://openai.com/index/strengthening-chatgpt-responses-in-sensitive-conversations/

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/188391