刘江:《这就是ChatGPT》的作者Stephen Wolfram,本身是一位天才级别的物理学家,他来撰写这本非常通俗的 ChatGPT 图书,实际上是一件非常难得的事情。因此,我和万老师将会一起聊一聊其中的内容,梳理其中的一些重要观点。
万老师,我想问你一个问题,关于这本书,你在得到的课上也做了非常好的解读。你印象中最深刻的地方是什么?有哪些重要观点你认为特别值得与大家分享呢?
万维钢:印象最深的一点是,我觉得 Stephen Wolfram 在这本书中将 GPT 的神秘感合法化了。如果你没有读过这本书,可能会有一些问题不明白,或者对某些问题感到困惑。但是读完这本书之后,你会发现其实很多问题包括作者自己也不明白。例如,为什么一个语言模型能够自动掌握语法和语义,目前没有任何原理能够解释清楚。也没有人知道语言模型的参数到底有多大,才能实现这样的功能。
作者本人之前也在使用自己的模型,叫作“Wolfram Language”,这是一种以他自己名字命名的数学语言。这个语言可以回答各种问题,比如问从伦敦到纽约之间的距离有多远,它会给你提供一个非常精确的答案。他希望将所有的知识库标准化存储在这个语言中,但没想到 GPT 突然横空出世,将他的工作彻底改变了。
Wolfram 的核心思想是认为世界上的一切都可以看作计算。从物理学、生物学,包括空间本身,所有的一切都是计算。他提出了一个概念叫作“计算不可约性”,意味着尽管底层的计算规则可能很简单,但我们无法总结出一个更简便的公式来提前预测一个系统的演化,尤其是在长时间的演化中。他认为真实世界就是这样一个不可约的计算系统。
他进一步提出一切智能,包括人类的智能和 AI 的智能,都是可约化的。我们做一些事情,总是需要对世界做出预测和判断。例如,当我想拿杯子喝水时,我需要预测杯子在我伸手过去的时候不会消失。这已经跳过了底层的逻辑,进行了一种跳跃性的预测。智能就是这种预测,包括 AI 的智能也是如此。所以他认为,无论是 AI 还是人类的智能,都不能代替真实世界的反应,它们只是用一些模型来替代真实世界。
他进一步作出了推导,认为 AI 虽然可以在某些方面超越人类,但 AI 永远也无法覆盖所有人的智能。因为无论 AI 使用什么样的模型,它都会受到限制。因此,这本书对于当前 AI 讨论的最大贡献就是从原理上证明了人类不用担心有一天 AI 会完全取代我们,因为不存在一个完全万能的智能。
刘江:万老师提到的这一点确实很重要,GPT 的技术原理是通过预测下一个词(严格来说叫 token)实现的。它会接收一串词语或语言单元,并试图预测在这个序列中接下来的词是什么。它通过计算每个可能的词出现的概率来进行预测。《这就是ChatGPT》非常清楚地解释了这个过程,并配有很多图表来帮助理解。
虽然“预测下一个词”的原理看起来很简单,但它的表现确实非常出色。伊利亚(OpenAI 联合创始人和首席科学家 Ilya Sutskever)在访谈中举了一个生动的例子来说明这一点,想象阅读一本侦探小说,最后一个词就是凶手的名字,要猜出凶手是谁,我们必须先读懂整个情节,理解了才能知道凶手是谁。大家可以体会一下,绝不可小看一些看上去很简单的事情。
在不断理解 GPT 的过程中,我也在不断反思,发现我们其实可以多做些思考。我们之前认为人类的智能非常厉害,涉及很多复杂的过程,比如思考、沟通、情感和自我意识,等等,看起来都像是未解之谜,非常复杂。但是像 Wolfram 这么聪明的人,他其实意识到一点,看上去很复杂的事情不见得那么复杂。
万维钢:就像 ChatGPT 这样的模型,它似乎是等同于人类的智能降低了一些。因此,既然 GPT 能够如此轻松地模拟人类的智能,这也说明人类的智能可能并没有我们想象得那么高深复杂。
刘江:是的,所以大家反过来想,我们所谓的大脑思考,是不是某种意义上也在不断地预测下一个词?为什么预测下一个词能够反过来“逼出”理解呢?让我们思考一下,到底什么是理解?我们的思考又意味着什么?当我们阅读一本图灵的书,听万老师的课,我们所做的其实是在我们自己的脑中生成一种表示,思考本身就是一种生成过程。
万维钢:刘老师刚刚的表达也启发了我。人脑的神经网络无非是一些连接和信号的强弱构成的。而语言模型本质上都是由一组参数组成的。而人工神经网络是模拟人脑的一种方法,它输出的结果是一种连续变化的参数组合,不同于离散的语言表示。
我们的理解实际上都是一些感觉,而语言只是对这些感觉的不完备、不精确的表述,就像维特根斯坦提出的语言的局限性。但是通过使用语言模型,我们可以反过来通过语料去训练 AI,让语言模型通过感知语料抓住我们背后那些难以用语言传达的感觉。
虽然我们用语言表述的内容都是不精确的,但我们还是能够进行交流。即使是通过一个粗糙、颗粒化、不完整的界面,我们仍然能够传达意思,相互理解。这确实是一种有趣的现象,也许正是这种交流的方式让我们能够在理解和沟通上取得一定的成就。
刘江:很多事情可能看起来很复杂,但实际上在某种意义上是可以被破解的,就像 GPT 这件事情一样。《人类简史》的作者赫拉利也有类似的观点。他认为GPT实际上破解了人类的“操作系统”,就是我们人类引以为傲的语言能力。我们之所以与动物有所不同,是因为我们拥有复杂的语言系统,而语言本身是将我们的社会组织在一起的重要因素。然而,GPT 的出现证明了语言并没有我们想象得那么复杂,它的本质其实挺简单的。
人工智能本质上是抓住一些隐含的规律,它不像物理中一些显式的规律,例如 E=mc² 那样可以明确地写成公式。
万维钢:是的,比如 AI 的老本行,像 AlphaGo 这样下围棋的 AI,它们并没有一个明确的理论或规则来解释为什么要做某些决策。它们就像棋手一样,凭感觉走棋,根据训练和经验作出决策,而没有一个形式化的逻辑或规则。
现在的问题是,我们能否认为这种凭感觉的计算、这种基于经验的推理才是更基本的推理方式呢?也就是说,相比严格的学术逻辑、按照固定规则的操作,这种凭直觉的计算方式才是更自然、更本质的计算方式。这个问题确实非常有意思。
刘江:是的,是的。聊了这么多,我们简单总结以上的讨论,我们认为这个世界是多样的,大家需要接纳不同的观点。在不同的情况下,我们需要采用不同的方式来理解和解决问题。即使像爱因斯坦这样的伟人,在晚年对量子力学的认识也有局限性。随着时间的推移和科学的发展,我们认识到这些理论是非常本质和重要的。所以,我们不应该仅仅局限在生物的世界观或者物理的世界观里,而是要理解它们在不同场景下的实用性,同时保持对不同观点的开放心态,并给予尊重和接纳,这是非常重要的。
