社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  chatgpt

对话 ChatGPT 核心作者:OpenAI 最难复制的壁垒,不是人才,是内部机制

AI 深度研究员 • 3 月前 • 104 次点击  

全文 2,000字 | 阅读约 6 分钟

(John Schulman 访谈:ChatGPT 本可以提前几年出现)

AI 竞赛看起来像两件事:抢人才,抢算力。

但真正决定胜负的,往往不在可见的战场上。

2025 年 12 月 18 日,John Schulman  接受了一期播客访谈。

他是 OpenAI 联合创始人之一、ChatGPT 核心技术作者,现任 Thinking Machines Lab 首席科学家。

访谈刚开始,他就说了件事:

把现在的完整研究方法带回 2018 或者2019 年,几个人、一年就能做出 GPT 3.5 级别的系统。

言下之意,决定 AI 突破的,可能不是我们以为的那些东西。

第一节|ChatGPT 迟到的真正原因

那到底是什么卡住了?

Schulman 的判断基于工程路径的反推:

  • 微调方式的选择
  • 后训练的配方组合
  • 数据集构造策略
  • 训练调度的工程优化

这些都不是天才一拍脑袋的结果,而是一次次试错积累出来的。

Schulman 说:

“ChatGPT 之所以能成型,不是因为有了更强的模型,而是因为我们知道怎么用当时能用的工具把它做出来。”

换句话说,模型的参数可以少一点,GPU 的规模可以减一点,但哪一环卡住了、哪里该先做、谁来负责调试、怎么评估效果,这些决策能力,才决定了能不能做成。

他提到的 nanoGPT 就是一个典型:一个人写代码,半年时间,在一台机器上完成。

这说明,很多 AI 突破,算力只是基础,真正的瓶颈在工程能力。

这也是为什么 Schulman 强调,机制比资源重要。真正能复用的,是一套把复杂工作做成的方法,而不是多堆几块卡、多招几位博士。

当我们今天复盘 ChatGPT 的诞生,看到的不只是一次模型演进,更是一套工作方法的建立过程。

这一点,往往才是后来实验室最难跨越的门槛。

第二节|那些没做出来的项目,教会了 OpenAI 什么?

很多人以为 OpenAI 一开始就奔着 AGI 去了。

其实不然。在 John Schulman 的描述中,早期的 OpenAI 更像是一家半学术、半实验室的公司,十几个人各自做感兴趣的项目,两三人成组,自由探索,像是大学里自带预算的研究生。

但这种状态没维持多久。随着 Dota 项目的推进,他们开始尝试把十几位研究者、工程师、工具开发人员拉到一个项目中:

怎么分工?谁盯训练?数据怎么统一处理?

这一系列问题逼着 OpenAI 从各自为战,开始学会系统协同推进。

John 点名了几个项目做得不够好的原因:比如 Universe,这个早期强化学习平台,目标是构建一个海量交互环境,但工具链不成熟、运行复杂,数据也不能泛化,最终没做起来。

他总结说:

"这想法是对的,只是早了十年。"

这种对失败的态度,恰恰体现了 OpenAI 的核心能力:他们不断试错,但每次都能从失败中提取经验。一次项目走不通,就收缩范围,聚焦在最能验证有效性的那一块,然后组团队、搭流程,变成可复制的方法。

问题是,怎么让这套方法在团队里真正用起来?

在 Schulman 看来,这不是设 KPI,也不是增加人手,而是研究人员如何在合作中保持创造力、产出质量和方向感。

他讲了两种典型的研究团队管理方式:

  • 一种是亲自盯每一行代码,给出技术反馈、架构建议,甚至参与具体实现;
  • 另一种则是以信任为主,研究负责人只把握大方向,让成员自行推进。

有意思的是,他说这两种方式都可能成功,重点不在风格,而在团队目标是否清晰、人员是否匹配、能不能持续交付成果。

“如果你是探索型研究,让人自由发挥可能更好;但要做确定性强的工程项目,就得盯得紧。”

听起来像管理技巧,其实是技术机构的护城河。比的不是谁最聪明,而是谁能持续让不同类型的人在不同阶段发挥作用。OpenAI 的早期成长,很大一部分靠的不是单点技术突破,而是让研究和工程真正融合的能力。

这种能力不只是组织形式,也体现在怎么立项、怎么验收、失败了怎么办。

很多公司内部的研究项目,不是不聪明,而是没人写技术文档,没人回顾失败原因,也没人推动项目做到能被他人接手。

这种机制差距,开始不会立刻显现,但一旦规模拉大、项目变多,差异就会放大。

真正的机制壁垒:不是某个产品的包装,而是团队内部如何判断、如何协作、如何把一个模糊想法推进成稳定成果的能力。

第三节|Thinking Machines 在卖什么?

讲完 OpenAI 的成长路径,再看 Thinking Machines 的创业选择,就会发现一条清晰的延续线。

Thinking Machines Lab 由 OpenAI 前 CTO Mira Murati 于 2025 年 2 月创立,John Schulman 担任首席科学家,核心团队几乎都来自 OpenAI。2025 年 7 月,这家成立不到半年的公司完成 20 亿美元种子轮融资,估值 120 亿美元。

很多人的第一反应是:这家公司自己没训练大模型,凭什么估值这么高?

Schulman 这样回应:

“我们不是在比谁参数更多,而是在重建研发流程,让更多人能做出真正有用的模型。”

这正是 Tinker 的设计初衷。它不是一个新模型,而是一套开放工具,让研究者能自己写微调逻辑,而不用再去搭集群、配环境、抢芯片。

  • 想自己写 loss 函数?可以。
  • 想控制每个训练 step 的行为?也可以。
  • 想基于开源模型做定制训练?只需要写 Python 脚本,其余交给平台。

这不是又一个训练平台,而是把重点从模型转向流程:

从模型为中心,变成工作流程为中心。

按 Schulman 的说法:过去很多优秀研究者,想试一个想法,可能要先搭一周服务器,配三种框架,调一堆数据接口,最后还可能因为代码集成问题放弃。

而 Tinker 试图做的,是把这些环节压缩成一个可以被调度、复用、改写的基础单元。就像早期 OpenAI 内部那种工程和研究混合的组织方式,只不过这次是以产品形式对外提供。

更重要的是,这套设计不是为几个大公司准备的,而是为那群下一轮突破的研究者:

  • 可能是小型 AI 团队,
  • 也可能是企业内的应用开发者,
  • 或是高校实验室和独立研究者。

Thinking Machines 做的,不是再造另一个 OpenAI 模型,而是把过去 OpenAI 内部才有的组织协作能力打包成服务,让更多人可以拿来用、直接用、自己调。

这不是技术突破,而是让 AI 能力真正下沉的开始。

结语|真正的壁垒

2018 年技术上就能做出 ChatGPT,但没人做出来。

不是因为算力不够,是因为没人知道该怎么做。

知道怎么做,是一种能力。这种能力藏在日常协作里、藏在失败复盘里、藏在项目推进的每个判断里。

OpenAI 用了七年建立这套能力。Thinking Machines 试图用产品的方式,让更多人不用再花七年。

这才是真正的壁垒。

识自AI

📮 本文由AI深度研究院出品,内容整理自 John Schulman 于 2025年12月18日播客访谈等网上公开素材,属评论分析性质。内容为观点提炼与合理引述,未逐字复制原访谈材料。未经授权,不得转载。

星标公众号,👆 点这里1. 点击右上角2. 点击"设为星标"AI深度研究员设为星标

参考资料:

https://www.youtube.com/watch?v=29BYxvvF1iM

https://www.podchemy.com/notes/john-schulman-on-dead-ends-scaling-rl-and-building-research-institutions-1fda9584-e1d8-54d4-8ae6-8a393eaa0529

https://podcasters.spotify.com/pod/show/cursorai/episodes/John-Schulman-on-dead-ends--scaling-RL--and-building-research-institutions-e3cgpdl

来源:官方媒体/网络新闻

排版:Atlas

编辑:深思

主编: 图灵

--END--

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/190772