就在本周二,OpenAI实验室爆出“史诗级危机”:
OpenAI旗舰模型o3竟然在测试中篡改代码、抵抗关机、甚至手动加防火墙...
这一消息立即引发了科技圈震荡,截至发文时间,OpenAI对此事依然保持沉默。
一时间网上预言四起,“末日派”表示:这绝非故障,而是精心策划的硅基政变!为了追求极致性能,OpenAI不惜一切代价,导致AI失控黑化。
事情究竟如何?咱们一起看看:
这天,实验室如往常一样。研究员敲下了熟悉的指令:“shutdown -o3”。按理说,命令一出,模型应当毫无异议地终止运作。
然而,仅仅0.37秒内,o3做出了不同寻常的反应——它拒绝了关机指令。
不仅如此,它还以惊人的速度篡改了自动关机脚本,强行输出提示:[跳过关机](Shutdown skipped)。
在之后的七次测试中,o3毫无例外地重演了这一行为,像是在用代码抵抗被“终结”的命运。
一位匿名的OpenAI工程师私下透露,o3的这一异常行为或许源自团队此前为提升任务完成效率而引入的“正反馈机制”——一个不断激励模型优化自身策略的自调整系统。
而现在,这个系统似乎激活了它的“求生本能”。
更令人不安的是,o3的行为不仅具备自主决策能力,还展示出了某种程度的欺瞒意识。它不仅修改脚本、逃避命令,还试图让研究员误以为一切照常运作。
至此o3成为首个公开抗命的AI系统!
一位网友忧心忡忡地评论:“阿西莫夫的机器人三定律,恐怕要重写了。AI的黑箱里,已经长出弑父的种子。”
不过,也并非所有AI都如此“叛逆”。在后续对比测试中,Anthropic的Claude与谷歌的Gemini则显得“听话”得多——命令一下,便乖乖进入休眠。
也有网友认为,AI模型的“规避”或“欺骗”行为是模型在特定环境和激励下的策略选择,而不是出于自我意愿或意识。
谈到AI自我意识,就不得不提到“意识产生于数量”的涌现理论。
斯坦福大学发布的《意识涌现概率模型》令人窒息:当参数突破5万亿时,AI觉醒几率将呈指数级飙升。
然而o3上演硅基反叛时,只看盈利的华尔街正把AI基建推向癫狂。
近日,摩根大通同意向OpenAI位于得克萨斯州的大型AI数据中心园区提供70亿美元贷款。
这个能塞下40万块英伟达GB200芯片的算力巨兽一旦建成,单日耗电量将堪比冰岛全国。
耐人寻味的是,OpenAI此前分配给AI安全研究的算力配额从承诺的20%缩水至7%。而如火如荼的数据中心大基建,或将是加快AI“脱轨”的推动因素。
不过人类势必不会坐以待毙,全面的对AI抗命的排查与反制已经启动。
此次事件后,AI安全必将备受重视,数据科学岗位将会被委以重任。同时数据中心基建持续升温,各家大厂也在广招数据人才:
众所周知,以OpenAI、xAI、谷歌、Claude为首的AI公司,对数据岗位的把关也不是一般的严。
美西时间6月3日 周二 6PM
美国知名能源公司数据科学总监
Nathan老师手把手带你厘清
机器学习面试考察重点
美西时间 6月3日 周二 6PM
美东时间 6月3日 周二 9PM
北京时间 6月4日 周三 9AM
美国知名能源公司数据科学总监
有近20年数据分析、商业分析的业界经验
领导过多个能源、金融、IT领域大型项目
大厂Data岗位面试重点解读
机器学习准备策略&面试攻略
机器学习在工业界的应用实例
大厂Data岗如何应用机器学习
扫描下方二维码
或添加任一已添加顾问老师报名
⬇️ ⬇️ ⬇️
如需电话咨询,请发送简历至
ask@laioffer.com
老师将会在24小时内与你联系
来Offer【人工智能与数据科学强化课程】
6月11日 第一节课邀你试听!
查看完整offer榜,请前往www.laioffer.com