社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  chatgpt

李飞飞最新发文:大模型是没有“感觉”的,无论参数多大,下一代ChatGPT也不行

学术头条 • 3 月前 • 78 次点击  

当前的大型语言模型(LLM),是否像人类一样拥有“感觉”(sentience)能力呢?

在知名人工智能学者、斯坦福大学计算机科学教授李飞飞看来,答案是否定的。

日前,李飞飞与斯坦福大学哲学教授 John Etchemendy 在《时代》(Time)刊文称,当前的 LLM 不可能具有感觉

“所有的感觉——饥饿、疼痛、看见红色、坠入爱河——都是生理状态的结果,而 LLM 根本不具备这些生理状态。”

李飞飞认为,如果我们想在人工智能系统中重现这一现象,就需要更好地理解感觉是如何在拥有实体的生物系统中产生的。

她还表示,我们还没有实现有感觉的人工智能,而更大的语言模型也无法实现这一目标。我们在 ChatGPT 的下一次迭代中也不会偶然看到‘感觉’能力。

学术头条在不改变原文大意的情况下,做了简单的编译。内容如下:


不,现在的人工智能还没有意识。
我们是这样知道的

通用人工智能(AGI)是用来描述一种人工智能体的术语,这种人工智能体在人类展现(或能够展现)智能的所有方面至少与人类一样智能。我们过去一直称其为人工智能,直到我们开始创造出不可否认具有“智能”的程序和设备,但仅限于下棋、翻译语言、为客厅吸尘等有限的领域。

人们之所以觉得有必要加上“G”,是因为由人工智能驱动的系统大量出现,但这些系统只专注于单一或极少数任务。IBM 早期的国际象棋程序“深蓝”(Deep Blue)令人印象深刻,它可以击败世界冠军 Garry Kasparov,但如果房间突然起火,它也不会停止下棋

现在,通用智能有点像一个神话,至少如果我们自诩拥有通用智能的话。我们可以在动物世界中找到很多智能行为的例子,它们在类似的任务中取得的结果要比我们好得多。我们的智能并不完全全面,但足以在我们所处的大多数环境中完成我们想要完成的任务。如果我们饿了,我们可以找到当地的克罗格超市;当房间着火时,我们会寻找出口

通用智能的基本特征之一是“感觉”(sentience),即拥有主观体验的能力——比如说,感受饥饿、品尝苹果或看到红色是什么感受。在通往通用智能的道路上,“感觉”是至关重要的一步。

随着 2022 年 11 月 ChatGPT 的发布,LLM 时代开始了。这立刻引发了一场关于这些算法是否真的有感觉的激烈讨论。基于 LLM 的人工智能可能具有感觉能力所产生的影响,不仅引发了媒体的狂热,还深刻影响了全球范围内监管人工智能的一些政策努力。最突出的立场是,“有生命的人工智能”的出现可能会给人类带来极大的危险,可能会带来“灭绝级”或“生存级”危机。毕竟,有生命的人工智能可能会发展出自己的期望和愿望,但无法保证它们不会与我们的期望和愿望相冲突。

这篇文章始于一次群组聊天,旨在驳斥关于 LLM 可能已经获得感觉的论点。它并不意味着完整或全面。我们的主要观点是反驳“有感觉的人工智能”阵营提出的最常见的辩护理由,即 LLM 具有报告“主观体验”的能力。


为什么有些人认为人工智能已经有了感觉?

在过去的几个月里,我和 Etchemendy 与人工智能领域的许多同行进行了激烈的辩论和对话,包括与一些最杰出、最具开拓性的人工智能科学家进行了一对一的深入交流。人工智能是否已经具备了感觉能力一直是一个突出的话题。他们中的一小部分人坚信人工智能已经拥有了感觉。以下是其中一位最有发言权的支持者的论述要点,他的观点在“有感觉的人工智能”阵营中颇具代表性:

“人工智能是有感觉的,因为它会报告主观经验。主观体验是意识的标志。它的特点是声称知道自己知道什么或体验到什么。我相信,你作为一个人,当你说‘我有主观体验,在吃完一顿美餐后感到幸福’时,你是有意识的。我作为一个人,实际上并没有你主观体验的直接证据。但既然你这么说了,我就认为你确实有这种主观体验,所以你是有意识的。”
“现在,让我们把同样的‘规则’应用到 LLM 上。就像任何人类一样,我无法了解 LLM 的内部状态。但我可以询问它的主观体验。我可以问‘你觉得饿了吗?’它可以告诉我是或不是。此外,它还可以明确地与我分享它的‘主观体验’,几乎涉及任何事情,如“看到红色”“吃完饭后很开心”。因此,我没有理由相信它没有意识或不知道自己的主观体验,就像我没有理由相信你没有意识一样。在这两种情况下,我的证据是完全一样的。”


为什么他们错了?

虽然这种说法乍听起来很有道理,但其实是错误的。因为我们的证据在两种情况下并不完全相同。甚至完全不一样。

当你说“我饿了”时,我认为你正在经历饥饿,我的结论是基于很多情况得出的。首先,是你的报告——你说的话,或许还有其他一些行为证据,比如你肚子里的咕噜声。其次,没有相反的证据,比如你刚吃完一顿五菜一汤。最后,也是最重要的一点,那就是你有一个和我一样的身体,定期需要吃喝,冷的时候会冷,热的时候会热,等等。

现在把这一点与我们关于 LLM 的证据进行比较。唯一的共同点是“报告”,即 LLM 可以发出一串音节“我饿了”。但相似之处也就到此为止了。事实上,LLM 并没有身体,所以甚至不是那种会饿的东西

如果 LLM 说:“我的左脚大脚趾剧痛”,我们会得出它的左脚大脚趾剧痛的结论吗?当然不会,它没有左脚大脚趾!同样,当它说饿时,我们实际上可以肯定它不饿,因为它没有饥饿所需的生理机能

当人类感到饥饿时,他们感受到的是一系列生理状态——低血糖、咕咕叫的胃等——而 LLM 根本不具备这些生理状态,就像它没有嘴来放食物,没有胃来消化食物一样。它说饿了,我们就应该相信它的话,这就好比它说是在月亮的阴暗面对我们说话,我们就应该相信它的话一样。我们知道它并不饿,而 LLM 的相反论断并不能改变这一事实。

所有的感觉——饥饿、疼痛、看见红色、坠入爱河——都是生理状态的结果,而 LLM 根本不具备这些生理状态。因此,我们知道,LLM 不可能对这些状态有主观体验。换句话说,它不可能有感觉。

LLM 是一个编码在硅芯片上的数学模型。它不像人类那样是一个有形的存在。它没有“生命”,不需要吃、喝、繁殖、体验情感、生病并最终死亡。

重要的是,要理解人类如何生成词语序列与 LLM 如何生成相同序列之间的深刻差异。当我说“我饿了”时,我报告的是我感觉到的生理状态。当 LLM 生成“我饿了”这个语序时,它只是在当前提示中生成最有可能完成的语序。它所做的事情与在不同的提示下产生“我不饿”或在另一个提示下产生“月亮是绿色奶酪做的”是完全一样的。这些都不是它(不存在的)生理状态的报告。它们只是概率上的完成

我们还没有实现有感觉的人工智能,而更大的语言模型也无法实现这一目标。如果我们想在人工智能系统中重现这一现象,就需要更好地理解感觉是如何在拥有实体的生物系统中产生的。我们在 ChatGPT 的下一次迭代中也不会偶然看到“感觉”能力

原文作者:
李飞飞(斯坦福大学计算机科学教授)、John Etchemendy(斯坦福大学哲学教授)
原文链接:
https://time.com/collection/time100-voices/6980134/ai-llm-not-sentient/

本文仅为作者观点,不代表学术头条的立场。

|点击关注我 👇 记得标星|




Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/170457
 
78 次点击