Py学习  »  chatgpt

李飞飞最新发文:大模型是没有“感觉”的,无论参数多大,下一代ChatGPT也不行

学术头条 • 1 年前 • 220 次点击  

当前的大型语言模型(LLM),是否像人类一样拥有“感觉”(sentience)能力呢?

在知名人工智能学者、斯坦福大学计算机科学教授李飞飞看来,答案是否定的。

日前,李飞飞与斯坦福大学哲学教授 John Etchemendy 在《时代》(Time)刊文称,当前的 LLM 不可能具有感觉

“所有的感觉——饥饿、疼痛、看见红色、坠入爱河——都是生理状态的结果,而 LLM 根本不具备这些生理状态。”

李飞飞认为,如果我们想在人工智能系统中重现这一现象,就需要更好地理解感觉是如何在拥有实体的生物系统中产生的。

她还表示,我们还没有实现有感觉的人工智能,而更大的语言模型也无法实现这一目标。我们在 ChatGPT 的下一次迭代中也不会偶然看到‘感觉’能力。

学术头条在不改变原文大意的情况下,做了简单的编译。内容如下:


不,现在的人工智能还没有意识。
我们是这样知道的

通用人工智能(AGI)是用来描述一种人工智能体的术语,这种人工智能体在人类展现(或能够展现)智能的所有方面至少与人类一样智能。我们过去一直称其为人工智能,直到我们开始创造出不可否认具有“智能”的程序和设备,但仅限于下棋、翻译语言、为客厅吸尘等有限的领域。

人们之所以觉得有必要加上“G”,是因为由人工智能驱动的系统大量出现,但这些系统只专注于单一或极少数任务。IBM 早期的国际象棋程序“深蓝”(Deep Blue)令人印象深刻,它可以击败世界冠军 Garry Kasparov,但如果房间突然起火,它也不会停止下棋

现在,通用智能有点像一个神话,至少如果我们自诩拥有通用智能的话。我们可以在动物世界中找到很多智能行为的例子,它们在类似的任务中取得的结果要比我们好得多。我们的智能并不完全全面,但足以在我们所处的大多数环境中完成我们想要完成的任务。如果我们饿了,我们可以找到当地的克罗格超市;当房间着火时,我们会寻找出口

通用智能的基本特征之一是“感觉”(sentience),即拥有主观体验的能力——比如说,感受饥饿、品尝苹果或看到红色是什么感受。在通往通用智能的道路上,“感觉”是至关重要的一步。

随着 2022 年 11 月 ChatGPT 的发布,LLM 时代开始了。这立刻引发了一场关于这些算法是否真的有感觉的激烈讨论。基于 LLM 的人工智能可能具有感觉能力所产生的影响,不仅引发了媒体的狂热,还深刻影响了全球范围内监管人工智能的一些政策努力。最突出的立场是,“有生命的人工智能”的出现可能会给人类带来极大的危险,可能会带来“灭绝级”或“生存级”危机。毕竟,有生命的人工智能可能会发展出自己的期望和愿望,但无法保证它们不会与我们的期望和愿望相冲突。

这篇文章始于一次群组聊天,旨在驳斥关于 LLM 可能已经获得感觉的论点。它并不意味着完整或全面。我们的主要观点是反驳“有感觉的人工智能”阵营提出的最常见的辩护理由,即 LLM 具有报告“主观体验”的能力。


为什么有些人认为人工智能已经有了感觉?

在过去的几个月里,我和 Etchemendy 与人工智能领域的许多同行进行了激烈的辩论和对话,包括与一些最杰出、最具开拓性的人工智能科学家进行了一对一的深入交流。人工智能是否已经具备了感觉能力一直是一个突出的话题。他们中的一小部分人坚信人工智能已经拥有了感觉 。以下是其中一位最有发言权的支持者的论述要点,他的观点在“有感觉的人工智能”阵营中颇具代表性:

“人工智能是有感觉的,因为它会报告主观经验。主观体验是意识的标志。它的特点是声称知道自己知道什么或体验到什么。我相信,你作为一个人,当你说‘我有主观体验,在吃完一顿美餐后感到幸福’时,你是有意识的。我作为一个人,实际上并没有你主观体验的直接证据。但既然你这么说了,我就认为你确实有这种主观体验,所以你是有意识的。”
“现在,让我们把同样的‘规则’应用到 LLM 上。就像任何人类一样,我无法了解 LLM 的内部状态。但我可以询问它的主观体验。我可以问‘你觉得饿了吗?’它可以告诉我是或不是。此外,它还可以明确地与我分享它的‘主观体验’,几乎涉及任何事情,如“看到红色”“吃完饭后很开心”。因此,我没有理由相信它没有意识或不知道自己的主观体验,就像我没有理由相信你没有意识一样。在这两种情况下,我的证据是完全一样的。”


为什么他们错了?

虽然这种说法乍听起来很有道理,但其实是错误的。因为我们的证据在两种情况下并不完全相同。甚至完全不一样。

当你说“我饿了”时,我认为你正在经历饥饿,我的结论是基于很多情况得出的。首先,是你的报告——你说的话,或许还有其他一些行为证据,比如你肚子里的咕噜声。其次,没有相反的证据,比如你刚吃完一顿五菜一汤。最后,也是最重要的一点,那就是你有一个和我一样的身体,定期需要吃喝,冷的时候会冷,热的时候会热,等等。

现在把这一点与我们关于 LLM 的证据进行比较。唯一的共同点是“报告”,即 LLM 可以发出一串音节“我饿了”。但相似之处也就到此为止了。事实上,LLM 并没有身体,所以甚至不是那种会饿的东西

如果 LLM 说:“我的左脚大脚趾剧痛”,我们会得出它的左脚大脚趾剧痛的结论吗?当然不会,它没有左脚大脚趾!同样,当它说饿时,我们实际上可以肯定它不饿,因为它没有饥饿所需的生理机能

当人类感到饥饿时,他们感受到的是一系列生理状态——低血糖、咕咕叫的胃等——而 LLM 根本不具备这些生理状态,就像它没有嘴来放食物,没有胃来消化食物一样。它说饿了,我们就应该相信它的话,这就好比它说是在月亮的阴暗面对我们说话,我们就应该相信它的话一样。我们知道它并不饿,而 LLM 的相反论断并不能改变这一事实。

所有的感觉——饥饿、疼痛、看见红色、坠入爱河——都是生理状态的结果,而 LLM 根本不具备这些生理状态。因此,我们知道,LLM 不可能对这些状态有主观体验。换句话说,它不可能有感觉。

LLM 是一个编码在硅芯片上的数学模型。它不像人类那样是一个有形的存在。它没有“生命”,不需要吃、喝、繁殖、体验情感、生病并最终死亡。

重要的是,要理解人类如何生成词语序列与 LLM 如何生成相同序列之间的深刻差异。当我说“我饿了”时,我报告的是我感觉到的生理状态。当 LLM 生成“我饿了”这个语序时,它只是在当前提示中生成最有可能完成的语序。它所做的事情与在不同的提示下产生“我不饿”或在另一个提示下产生“月亮是绿色奶酪做的”是完全一样的。这些都不是它(不存在的)生理状态的报告。它们只是概率上的完成

我们还没有实现有感觉的人工智能,而更大的语言模型也无法实现这一目标。如果我们想在人工智能系统中重现这一现象,就需要更好地理解感觉是如何在拥有实体的生物系统中产生的。我们在 ChatGPT 的下一次迭代中也不会偶然看到“感觉”能力

原文作者:
李飞飞(斯坦福大学计算机科学教授)、John Etchemendy(斯坦福大学哲学教授)
原文链接:
https://time.com/collection/time100-voices/6980134/ai-llm-not-sentient/

本文仅为作者观点,不代表学术头条的立场。

|点击关注我 👇 记得标星|




Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/170457