全文 2,000字 | 阅读约 6 分钟

(John Schulman 访谈:ChatGPT 本可以提前几年出现)
AI 竞赛看起来像两件事:抢人才,抢算力。
但真正决定胜负的,往往不在可见的战场上。
2025 年 12 月 18 日,John Schulman 接受了一期播客访谈。
他是 OpenAI 联合创始人之一、ChatGPT 核心技术作者,现任 Thinking Machines Lab 首席科学家。
访谈刚开始,他就说了件事:
把现在的完整研究方法带回 2018 或者2019 年,几个人、一年就能做出 GPT 3.5 级别的系统。
言下之意,决定 AI 突破的,可能不是我们以为的那些东西。
第一节|ChatGPT 迟到的真正原因
那到底是什么卡住了?
Schulman 的判断基于工程路径的反推:
这些都不是天才一拍脑袋的结果,而是一次次试错积累出来的。
Schulman 说:
“ChatGPT 之所以能成型,不是因为有了更强的模型,而是因为我们知道怎么用当时能用的工具把它做出来。”
换句话说,模型的参数可以少一点,GPU 的规模可以减一点,但哪一环卡住了、哪里该先做、谁来负责调试、怎么评估效果,这些决策能力,才决定了能不能做成。
他提到的 nanoGPT 就是一个典型:一个人写代码,半年时间,在一台机器上完成。
这说明,很多 AI 突破,算力只是基础,真正的瓶颈在工程能力。
这也是为什么 Schulman 强调,机制比资源重要。真正能复用的,是一套把复杂工作做成的方法,而不是多堆几块卡、多招几位博士。
当我们今天复盘 ChatGPT 的诞生,看到的不只是一次模型演进,更是一套工作方法的建立过程。
这一点,往往才是后来实验室最难跨越的门槛。
第二节|那些没做出来的项目,教会了 OpenAI 什么?
很多人以为 OpenAI 一开始就奔着 AGI 去了。
其实不然。在 John Schulman 的描述中,早期的 OpenAI 更像是一家半学术、半实验室的公司,十几个人各自做感兴趣的项目,两三人成组,自由探索,像是大学里自带预算的研究生。
但这种状态没维持多久。随着 Dota 项目的推进,他们开始尝试把十几位研究者、工程师、工具开发人员拉到一个项目中:
怎么分工?谁盯训练?数据怎么统一处理?
这一系列问题逼着 OpenAI 从各自为战,开始学会系统协同推进。
John 点名了几个项目做得不够好的原因:比如 Universe,这个早期强化学习平台,目标是构建一个海量交互环境,但工具链不成熟、运行复杂,数据也不能泛化,最终没做起来。
他总结说:
"这想法是对的,只是早了十年。"
这种对失败的态度,恰恰体现了 OpenAI 的核心能力:他们不断试错,但每次都能从失败中提取经验。一次项目走不通,就收缩范围,聚焦在最能验证有效性的那一块,然后组团队、搭流程,变成可复制的方法。
问题是,怎么让这套方法在团队里真正用起来?
在 Schulman 看来,这不是设 KPI,也不是增加人手,而是研究人员如何在合作中保持创造力、产出质量和方向感。
他讲了两种典型的研究团队管理方式:
- 一种是亲自盯每一行代码,给出技术反馈、架构建议,甚至参与具体实现;
- 另一种则是以信任为主,研究负责人只把握大方向,让成员自行推进。
有意思的是,他说这两种方式都可能成功,重点不在风格,而在团队目标是否清晰、人员是否匹配、能不能持续交付成果。
“如果你是探索型研究,让人自由发挥可能更好;但要做确定性强的工程项目,就得盯得紧。”
听起来像管理技巧,其实是技术机构的护城河。比的不是谁最聪明,而是谁能持续让不同类型的人在不同阶段发挥作用。OpenAI 的早期成长,很大一部分靠的不是单点技术突破,而是让研究和工程真正融合的能力。
这种能力不只是组织形式,也体现在怎么立项、怎么验收、失败了怎么办。
很多公司内部的研究项目,不是不聪明,而是没人写技术文档,没人回顾失败原因,也没人推动项目做到能被他人接手。
这种机制差距,开始不会立刻显现,但一旦规模拉大、项目变多,差异就会放大。
真正的机制壁垒:不是某个产品的包装,而是团队内部如何判断、如何协作、如何把一个模糊想法推进成稳定成果的能力。
第三节|Thinking Machines 在卖什么?
讲完 OpenAI 的成长路径,再看 Thinking Machines 的创业选择,就会发现一条清晰的延续线。
Thinking Machines Lab 由 OpenAI 前 CTO Mira Murati 于 2025 年 2 月创立,John Schulman 担任首席科学家,核心团队几乎都来自 OpenAI。2025 年 7 月,这家成立不到半年的公司完成 20 亿美元种子轮融资,估值 120 亿美元。
很多人的第一反应是:这家公司自己没训练大模型,凭什么估值这么高?
Schulman 这样回应:
“我们不是在比谁参数更多,而是在重建研发流程,让更多人能做出真正有用的模型。”
这正是 Tinker 的设计初衷。它不是一个新模型,而是一套开放工具,让研究者能自己写微调逻辑,而不用再去搭集群、配环境、抢芯片。
- 想基于开源模型做定制训练?只需要写 Python 脚本,其余交给平台。
这不是又一个训练平台,而是把重点从模型转向流程:
从模型为中心,变成工作流程为中心。
按 Schulman 的说法:过去很多优秀研究者,想试一个想法,可能要先搭一周服务器,配三种框架,调一堆数据接口,最后还可能因为代码集成问题放弃。
而 Tinker 试图做的,是把这些环节压缩成一个可以被调度、复用、改写的基础单元。就像早期 OpenAI 内部那种工程和研究混合的组织方式,只不过这次是以产品形式对外提供。
更重要的是,这套设计不是为几个大公司准备的,而是为那群下一轮突破的研究者:
Thinking Machines 做的,不是再造另一个 OpenAI 模型,而是把过去 OpenAI 内部才有的组织协作能力打包成服务,让更多人可以拿来用、直接用、自己调。
这不是技术突破,而是让 AI 能力真正下沉的开始。
结语|真正的壁垒
2018 年技术上就能做出 ChatGPT,但没人做出来。
不是因为算力不够,是因为没人知道该怎么做。
知道怎么做,是一种能力。这种能力藏在日常协作里、藏在失败复盘里、藏在项目推进的每个判断里。
OpenAI 用了七年建立这套能力。Thinking Machines 试图用产品的方式,让更多人不用再花七年。
这才是真正的壁垒。
📮 本文由AI深度研究院出品,内容整理自 John Schulman 于 2025年12月18日播客访谈等网上公开素材,属评论分析性质。内容为观点提炼与合理引述,未逐字复制原访谈材料。未经授权,不得转载。
参考资料:
https://www.youtube.com/watch?v=29BYxvvF1iM
https://www.podchemy.com/notes/john-schulman-on-dead-ends-scaling-rl-and-building-research-institutions-1fda9584-e1d8-54d4-8ae6-8a393eaa0529
https://podcasters.spotify.com/pod/show/cursorai/episodes/John-Schulman-on-dead-ends--scaling-RL--and-building-research-institutions-e3cgpdl
来源:官方媒体/网络新闻
排版:Atlas
编辑:深思
主编: 图灵
--END--