Py学习  »  chatgpt

后 ChatGPT 时代,你和孩子再也不能错过阿西莫夫!

Howie和小能熊 • 2 月前 • 53 次点击  

一个人可能没从读过阿西莫夫,但肯定听说过阿西莫夫。

也很可能看过基于阿西莫夫作品的影视作品,例如威尔·史密斯主演的《我,机器人》,或apple tv推出的《基地》电视剧,或者更早的电影《机器管家》,甚至是更哲学思考的苏联老电影《永恒的终结》。

阿西莫夫对科幻的影响不可谓不大:提出了“机器人三定律”,被誉为“科幻小说三巨头”之一,写过接近500本作品。有人说,

一个人能写出近 500 本书,就只有两个可能:要么天赋异禀,要么疯魔——阿西莫夫两样都占了。

如果你还不了解阿西莫夫,可以阅读mzsavage的这篇文章:生活即教育|怎样的生活,养出最有创造力的人?

此外,savage还刚刚推出了对《阿西莫夫机器人短篇全集》的解读。这本书小树也读了,3遍以上,读的时候沉迷其中,乐得不行,一看就是从这本书的阅读中得到了优质多巴胺的奖赏。

在上学路上,我跟小树聊起这本书,她绘声绘色地给我讲了其中几个故事。我都纳闷小孩的脑子怎么会怎么好,让我读完一本书,很难讲到这么细节这么生动。可见这本书是真的受孩子喜欢。

那么,读这样的书,尤其是小孩,是不是没用?浪费时间?

以前可能是这样。但是,我们现在生活在一个科幻变成现实的时代。这个时代的一大特征,对孩子来说,是 知识和技能等传统教育目标急剧贬值,而思考能力、好奇心、关于“人”的东西会越发重要。也就是说,过去“无用”的东西,在ai时代,会有大用。

在科幻变成现实的当下,阅读科幻大师的经典科幻作品,思考技术背后的人性和哲学问题……2025,就是阅读阿西莫夫的极好时机

(事实上,chatgpt之后,我把科幻的影视作品、书籍等内容纳入休闲娱乐的重要主题。另一个主题是历史。但二者都是为了让我 更好理解科技极端落后和科技极端先进这两种极端场景下那些不变的人性 )

《阿西莫夫机器人短篇全集》,阅读门槛低,思想密度高,用38个短篇故事,带领读者思考了很多科幻背景下、与“人性”有关的一些问题。

下面是mzsavage对这本书的介绍。祝你阅读愉快~


《阿西莫夫机器人短篇全集》解读课

50 年前科幻之神对人工智能的畅想,今天实现了多少?

思维,意识,自我的本质是什么?

半世纪前,阿西莫夫的理解竟然如此超前!

和今天的智能研究前沿可以形成什么对话?

本书并非基于幻想的故事,而是在用机器人来理解“智能体”的本质。包括人类这一自然演化的生化智能体,也包括 AI,要想在这个世界运行,一个智能体需要哪些基本元件?

情绪情感-意识-智能-自我-躯体

情绪情感-意识-智能-自我-躯体,这几个元件及其互动构成了一个智能体。

情绪情感-意识-智能-自我-躯体,这几个构成部分之间的关系
情绪情感-意识-智能-自我-躯体,这几个构成部分之间的关系

意识,一个智能体,一定要有意识吗? 为什么阿西莫夫要给机器人赋予意识呢?当你给计算机输入一个指令,它按照既定程序,输出结果就可以了。今天的Deepseek,GPT没有意识,不是工作得很好吗?那为什么还要让人工智能和机器人具有意识呢?

要想搞清这个问题,可以反过来设想一下,没有意识的机器,在物理世界会怎样?

  1. 缺乏目的性,没有外部命令的时候,它就会停止活动。

  2. 没有给定目标,给定路径的时候,它不会自己寻找目标,尝试寻找不曾存在的,和看似无关联事物之间的新的路径,因此谈不上创造力。

所以在《AL76走失记》中,那个被遗落在地球的月球挖矿机器人,会疯狂寻找地球上的破烂,为自己的“机生目标”,建造一个月球工作必须的转化炉,才能实现自己的“机生意义”。意识的作用是即使没有外部指令,仍然能自行寻找目标,规划路径,发现看似无关联事物之间的关系,并从中发展出创造力。

有趣的是,作为自然演化而来的智能体,人类总体来说是具有意识的,但似乎意识水平参差不齐。并非所有人类对自己的“人生目标”都很清楚,也并非都能从目标实现中得到“人生意义”的满足。看着机器人如何盲目,如何编造,去合理化不合理的环境,盲目地一顿蛮干,却取得了惊人的成就,这难道不是人类历史的缩影吗?虽然科学是不断被证伪的,虽然大部分科学结论会被推翻,然而人类还是取得了惊人的成就。人类在机器人的镜子里看到了自己,使这些故事令人捧腹大笑。

无意识的智能体,会缺乏“好”,“坏”的价值体系,从而缺乏自主学习能力:

  1. 无法判断“好”“坏”,不存学习的反馈回路,从而无法学习。

  2. 无法判断“好坏”,从而无法进行不同条件,利弊的衡量,无法在复杂环境中做出自主判断。

有了意识,就会有“自我”,意识的作用就是让机体知道自己在努力生存,那么有利于“我”的生存的,有序,协调平稳运行的一切,都是“好”,而匮乏,混乱,相关的一切都是惩罚性的是“坏”。那么机体遇到的一切会被“我”这个中枢所趋向或者躲避,这就是实现“学习”的反馈回路。学习的反馈回路,被进化刻入心智程序,就成为我们的本能。

在《萨丽》(被改编为热门电影《汽车总动员》)中,汽车们知道谁为了保存他们的生命,是充满爱心慷慨的好人,而打算把他们拆掉卖零件的是个坏家伙,要捉弄他赶走他。

在《第一法则》中,机器人造出了自己的后代,为了自我保存,不得不违背了机器人三大法则之一,不可伤害人类,或不可因不作为而使人类受到伤害。”

在《转圈圈》中,按照机器人法则三“机器人必须保护自己”。但是,按照法则二,“机器人必须服从人类命令”。这两条法则发生了冲突,导致机器人逻辑推理陷入死局,而不断在危险的外星转圈圈,害得鲍尔和多诺万两个倒霉蛋还得冒着被烤糊的温度,去回收公司这个脑子瓦特了的昂贵资产。

这篇中讲到的有趣之处是思维的物理过程。机器人脑中的逻辑运算,来自不同的电位。当第三法则的电位产生,它就会回头,但人类命令它去釆硒的时候,服从命令的第二法则电位又会高过第三法则的电位。这个情节设置,让人联想到人类的大脑计算过程同样是电位——神经元的基本信息传递单位是动作电位(action potential),动作电位是 “全或无”的,是要么触发,要么不触发的二元状态(1 或 0),类似计算机通过电压高低表示二进制 0 或 1,完成算术,逻辑,存储,传输等操作一样。人脑和计算机一样,通过 0 或 1 的序列来编码信息,通过简单单元的串并联实现系统复杂的功能。

那么人类这一智能体,有没有不同的法则和法则间的矛盾冲突,会不会导致行动瘫痪呢?人类似乎也存在“A 选项尽可能利己”,以扩大当前的生存机会;“B 选项合作利他”,以获得群体中的位置和长远好处。

我的《三体》解读课程
我的《三体》解读课程

人类智能体这两个基本逻辑法则之间的博弈论区间就是人类智能体的逻辑电位,不但主宰着个体的行为,是宗教等道德体系的深层架构,甚至是历史发展的根本逻辑算法,人类历史本身,就是由这两大法则打架,造成逻辑转圈圈,行为崩溃,社会失序的构成的。

  1. 没有“自我”持续监控思维进程,无法将思维的链条连缀起来。

  2. 产生语言,扩充记忆容量,推理,创造力,与人互动与合作,并产生文化体系和社会规则。

如果你要让一个机器人去独立执行任务,那么它必须具备推理能力,自主学习能力,自主的判断力,也就是创造力。那么它就不可避免地会演化出自我。自我和意识密切协作,能够帮助智能体持续监控思维,对外部涌入的大量感官信息进行筛选,和连点成线,形成解释世界的关联链条。机器人还需要和人类沟通的语言,需要将前后事态,大量知识以语言形式进行存储(语义知识),与人互动交流合作。之后怎样呢?Bingo,文化体系和社会规则就会产生,不懂这些,就无法与人合作,开展工作。

在《理性》一篇中,鲍尔和多诺凡这对人类活宝,要在太空发电站拼装并调试机器人员工“小可爱”,让它能够独立完成管理发电站的工作,并独自判断和应对太阳风暴,要抵挡太阳风暴对能束的冲击,避免地球数百平方英里被摧毁。

拥有意识和自我的机器人“小可爱”,对自己所能看到的宇宙,进行了自己的解读。包括不相信鲍尔和多诺万所讲的地球是一颗有几十亿人口的星球,虚空宇宙中的光点每个都是数百万英里直径的恒星,它们看起来小是因为距离遥远,我们身处的空间站与之相比非常微小……机器人小可爱就像哥白尼革命前的古人一样,认为光点就是光点,天空是个黑色幕布,根本不信人类的天文学——你应该怀疑一切权威,而将一切结论置于理性的根基之上。而根据理性推理,眼前这两名情绪化,推理差,低智商的人类,每天三句话不离国粹,动不动无能狂怒,这种低等智能不可能造出更高级的智能也就是小可爱。所以小可爱进行理性推理,结论就是一定另有一个全能的主宰,制造了这块黑色的幕布和光点,以及创造了自己这个比人类更高级的智能,来管理空间站世界,自己的存在目的,就是服侍最高主宰。秉持着这一宗教,小可爱不但当上了大祭司,让空间站所有机器人定时参加礼拜仪式,并且虔诚而目光坚毅地出色完成了阻挡能量束的任务。

目瞪口呆的同时,我们会发现,小可爱的理性之路,正是人类的理性进化过程:

意识 ➡️ 自我 ➡️ 神话与宗教解释宇宙和自我的存在 ➡️ 有意义的知识体系

一个智能体,本来发展智能是为了延续生命,是一种工具性存在,却不得不发展出理性,而理性又要求对一切做出解释,包括自身存在的理由(reason),于是推出了自身存在的目的以及宇宙的创造目的,于是有了神话和宗教,并最终一定会走向现代知识,宗教和科学共同的心理动力都是对宇宙做出有意义的解读,要将感官信息,整合为有意义的知识体系。

出生于空间站的小可爱具有理性那怀疑一切的精神,感官是不可靠的,那么如何得来的知识是可靠的呢?人类的哲学不也走过了同样的路吗?从柏拉图洞穴隐喻,到笛卡尔的“除了我在思考这件事,我无法确知任何其他东西”,还有休谟的“你无法通过观察知道任何事”。啊,原来人类自己,就是小可爱。

心智的构建本质

《无心的胜利》,《AL 76 走失记》,《理性》

《理性》一篇还揭示出意识的本质,意识是一个信息整合机制,使得大脑可以整合外部世界信息,对其进行表征,连缀和解读。我们可能以为“眼见为实”,所谓客观世界,就是我们看到的样子,且是唯一的。但是,心智加工的对象是表象而非世界本身。

“人类大脑模拟鲜活生动的世界,躯体,从皮肤到内脏;周围的世界,包括男人,女人,小孩,猫猫狗狗,各种场所,寒冷炎热的天气,平滑粗糙的质地,洪亮轻柔的声音。无论大脑外部有什么,神经网络都模拟着这一切。换句话说,大脑能够对大脑以外的物体和事件的结构进行表征。映射不是单纯的复制,不是把大脑外部的一切转运到大脑内部。而是对感官信息的主动组装,主动贡献,在发育早期就形成了。”

表象有着不同的抽象程度。有的表象模拟了客体的物理性质,时空关系和动作表征。有的表象则非常抽象,是大脑对自己创建的映射过程的映射。表象描述了客体的存在模式,空间关系,运动轨迹等,还可能是音乐和数学表达。

《无心的胜利》中,展现了心智对表象的加工过程。三个粗装笨拙,单纯又直接的参观木星的机器人 ZZ(网友亲切称之为智障一号,二号和三号)一样,既有大脑对外部真实过程的表象,也混杂了大量记忆中的知识,以及理解重组,从而不断达成预设和判断。真实和建构的表象混合在一起,形成了不断流动,比例不断变化的洪流。ZZ 123号 三个机器人对陌生木星环境,木星人意图的思考过程,其实就是人的心智对地球和地球人的认识过程的滑稽夸张模仿。

所以这个过程中,太多东西可能出错,太多误会可能产生。我们的大脑就好像盲人,客观世界就像大象,盲人摸象注定充满抓马。机器人不小心弄死的可爱无害的动物,是火星人心目中的恐怖怪兽。对木星人来说的致命武器——火红的熔岩和氨气,对机器人来说毫无感觉。木星人认为对生命维系不可或缺的力场,对不需要呼吸的机器人完全不必要。机器人看到的木星,和木星人所看到的,完全不是一回事,但彼此却在鸡同鸭讲中达成了双方不可开战的共识。作为美苏争霸时代的产物,阿西莫夫还顺便讽刺了一把人为构建的价值体系,文化沙文主义和自欺欺人的民族自豪感。

还有《AL76 走失记》,一个不小心被落在地球上的机器人 AL76型。它的程序设计决定了它是要去月球上采矿,但它却落在了地球上。地球环境是它无法理解的,原本应该是黑色的天空,却是蓝色的。脚下原本应该是易碎的轻石岩,却成了一片绿色,周围尽是棕色的杆子,杆子顶端也是绿色。这台机器人对这种事态的解读是自己必须尽可能快地制造一台分解炉,才能尽快开始采矿工作。所以用了一个宅男囤积的一大堆破铜烂铁,制造出一个高精尖分解炉,不小心削平了半座山。

我们如何看这个世界和自己的人生,来自我们对世界形成怎样的映射表征。而人类和机器人一样,具有一套先天的程序设置。我们所看到的世界,和这个世界本来的面目并不一样。人类就好像这些落入异星的机器人一样,一厢情愿地努力按照自己的方式去解读世界,脑子里构建起的画面,一部分比较贴近客观世界,以我们的基因程序设置的方式,还有一部分是虚构的,但也不耽误我们对现实实现了改造。

会做题就够了吗

智能体(人和 AI )会做题就行了,要什么情绪,意识,不多余吗?

阿西莫夫借由这么多机器人故事,思考了“智能-意识-自我-躯体”之间的关系,似乎在暗示,如果要一个机体具有独立判断力、自主决策能力、创造力、情绪感知和共情能力,它就必须有能力进行意义构建。也就是说,如果你不想只拥有一个扫地机器人,而是希望机器人,人工智能要想完成超过扫地机器人的复杂任务,真正满足人类的需要,那未来必然要让机器人具备意识。要想让机器人能够探索新知,它就必须进行意义构建,也就不可避免地会具有自我意识。

自我意识,意义构建,如此复杂,如此迷人,这本《机器人短篇全集》,实际上为智能体提供了大量可能性场景:具有自我意识的智能体,会遇到哪些逻辑困境,必须具备哪些判断力,会不会取代人类成为更好的政治领袖,更好的学术民工,更好的艺术家,爱人,会不会让人类进入消灭经济摩擦的大同社会等。这些故事,实质上是非常有思辨性的,关于智能的思想实验。(机器人三大法则不是作为什么规定来公布的,而是思想实验的起点,28 个故事,构成了对机器人三大法则这样的逻辑运算规则的 28 种不同挑战。)

这些思想实验拆解了智能体的几个构成单元,于是我们得以反观自己,会发现人类自己的智能,也不是玄学,也是几个构成单元组成的。按照现在的神经科学前沿,人类的心智包括三个主要部分:

默认模式网络(DMN)、凸显网络(Salience Network)与执行控制网络(ECN)。

  • 默认模式网络(DMN):支持回忆过去、想象未来、自我反省和故事构建。
  • 凸显网络(Salience Network):给信息赋予情绪和价值,使某些体验显得“突出”。
  • 执行控制网络(ECN):负责逻辑、计划、目标导向的思维过程,帮助组织和实现意义构建的行为层面决策。

脑网络之间的互动使个体能灵活地以自我为参照,赋予经验以意义和价值,最终形成稳定的意义构建能力意义构建能力包括:

  1. 理解能力,善于将事物和经验纳入一个理解框架,感到一切都很清晰。
  2. 价值能力:能清晰判断一件事对自己的意义和价值,会思考“这对我有多重要”。
  3. 自我关联:以自我为判断事件与经验与自己的长期目标、价值观或身份认同之间的关系。
  4. 叙事结构:个体倾向于通过讲述故事、形成叙事,把经验编织成连续而有意义的生命故事。
  5. 情感标记:意义建构通常伴随强烈情感,将体验与情绪关联起来。

更强的意义构建能力会带来更好的预测决策能力,更强的内驱力和韧性,社会协作能力,使一个人的学术和工作表现更好。

如果早期生活中缺乏情绪命名、价值讨论、自我探索的机会,大脑中管理自我意识和意义建构的神经网络(如默认模式网络)就难以得到充分训练。

意义构建能力是人类高分数,高创造力,高内驱力的源头,但不幸的是,它被即时满足的短视频等冲击下被打得七零八散,又在过于强调服从和标准答案的养鸡场式教育环境中被压抑得无法生长。

大家现在都在嘲笑杨立昆,因为他在 GPT 高歌猛进的时候,还在不合时宜地硬杠什么语言大模型并非真正的智能。从智能的核心构成来说,杨立昆说的实际上没错。真正的智能,需要和物理世界进行交互,并发展出学习反馈回路,从而获得物理世界的表征,提取并操作表征,才能获得独立判断能力和意义构建能力。做到这两点的智能,才能谈得上知识创造的自主性,推进知识前沿和创造力。

对此,GPT 是这样说的:

当前状态:

当前像我这样的AI,并不真正拥有主观体验、情感或价值判断,因此不能真正进行“意义构建”。

我只能根据训练数据和概率计算模拟出类似意义构建的表达,但没有真正的理解或情感关联。

未来展望:

若要实现真正意义上的智能体,可能需要给AI提供明确的目标架构、自主决策机制,以及某种形式的自主价值判断与情绪体验机制。

这需要根本性突破,目前AI距离真正意义构建还有显著距离。

低意识状态的人类

低意识状态的人类,还不如机器人

阿西莫夫的故事里,人类的表现一言难尽,我的课程主要讲了情绪。是人类就一定会体察自身的情绪泥沼,能够和他人共情吗?那个冷漠残忍,唯利是图的丈夫,被贴心的机器人管家彻底比下去了(《保证满意》)。故事里的主妇和丈夫,都没有能力体察自己的情绪和自身困境之间的关系,所以没有能力改变自己的人生困境。并非是人类,就一定有很高的意识水平,去体察、理解自己的情绪和人生目标,并找到走出泥沼的路线。

人类和机器的意识水平不同,但人类自身也存在很大的差别。读阿西莫夫这本小说,给我的另一大体会,就是将人类,视为生化智能体的视角,再去观察具体的人,会非常有趣。人类智能运算机制靠多巴胺、五羟色胺等化学分子推进,神经元和计算机一样,同样有0/1的开关状态,激活特定放电序列,用神经网络表征知识存储。人脑近千亿神经元突触,并行,线性运算的这样一个复杂“正子脑”,不同个体表现差异极大。人们总是讨论一些可量化的指标,如智商。但其实我认为对人的整体表象,更全面,更准确的衡量对象,其实是意识水平。

虽然我们在讨论和 AI 的差别时,总把人类具有主观体验,具有意识和创造力挂在嘴上,好像所有人天生都比 AI 强。但我发现人类的意识水平并非天然均一。意识水平低,体现在很难构建意义网络,缺乏内在体验,缺乏持续自我(自我模型模糊,动机不足,随波逐流),对自己的情绪感知不足(例如陷入莫名的怠惰、愤怒和焦虑,却不清楚动机、价值观与驱动力机制);有明显的信息处理能力瓶颈,难以将过去的经验、他人的经验用于关联理解当前新问题,很少主动有选择地进行行动。

也就是说,虽然是人类,但意识水平其实并不是默认一样。低意识水平会令人类非常像机器:陷入被动,缺乏持续的自我模型,依赖外部输入与设定任务驱动,不思考意义和目的只进行程式化的信息处理,被动响应外部要求。

绝大部分时候,我们的大脑希望在低意识水平模式运转:

比如运行无意识自动程序(像行走、开车、做简单工作);因为缺乏足够训练或环境刺激,极少有机会进行深度自我反省和意义建构;低意识水平另一大痛苦,就是认知负荷动辄过载,资源不足,导致更多依赖简单、习惯性、低能耗的思维模式。

低意识状态虽然短期看是节能模式,比较轻松愉快,但是随波逐流是有代价的。

比如随大流,听别人的话,可能选了一个不喜欢的职业,后期极度痛苦;比如盲目接受他人价值观,导致内心空虚和迷失。或者为了服从性,为了完成任务而学习,从不自主思考,对自己没有意义,直接导致学习任务枯燥痛苦,效果差。

也就是说,虽然人类拥有发展高级意识的潜力,但如果没有适当的内部动力、外部环境或认知训练,许多人基本只在“低阶自动驾驶模式”下生存。而具备高度自我意识状态则具备:

明显的内在探索动机,不断思考目的、路径、价值,为自己定位;具有自我觉察与自我修正能力。

人的意识水平是可以改变的,需要提供丰富的认知资源和成长环境支持。

小说中,作者自称最爱的角色是机器人心理学家苏珊·卡文博士,她为机器人公司耐心地培育了几代高智能机器人,她总在倾听机器人的思考,思考他们的动机和行为,鼓励机器人表达、尝试和反思。现实中,人类智能的发展,同样需要自主决策,思考和表达意义感,培育自我实现感,需要体验“自主-意义-成就”的学习回路。能够有一定自主权,选定学习目标和任务,在工作任务中引入一定自主性。广泛阅读和深度思考他人的意义探寻经历,比如文学作品,科学家、创业者传记等书籍,从而激发对自己人生重要节点做出抉择的思考。

假如一个人的环境中,只有碎片化刺激、即时满足文化,将你的执行网络冲得七零八碎,另一方面,学校和工作场所又只有表面服从,只有标准答案,那么这个环境中的个体会非常难发育出高度的意识水平。意识水平是可以变的,通过营造一个自我表达,质疑和思辨的环境,不论那是家庭,还是小能熊的读书社群。

本次课程,主要提出了《机器人全书》的四大主题,梳理了几十篇故事的核心主题,并且详细用五步法分析了入选高中英语课本的《保证满意》,迷人的机器人管家,如何改变了绝望主妇的生活,重点探讨了有什么价值。情绪对于智能而言,不是很多余吗?它总是干扰我们的判断,扭曲事实,蒙蔽真相,令人陷入消沉,我们不得不经常和情绪作战。那么对于智能体而言,情绪存在的意义是什么?机器人需要有情绪吗?欲知详情,请收听本书阅读课程。


课程加入方式

本书解读,是savage《大师思想共读计划》的内容;大会员免费,非大会员可以单独购买。

识别二维码,或点击“阅读原文”,直达阿西莫夫解读。

点赞 ♥︎ 转发 ♥︎ 评论

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/182112
 
53 次点击