
自2022年11月推出以来,ChatGPT引发了人们的热情和恐惧。它明显掌握了语义和语法,但还没有掌握不同语言的内容,这让期待普通聊天机器人的用户感到惊讶。一些大学立即禁止学生使用ChatGPT进行论文写作,因为它的表现优于大多数人类学生。报纸专栏宣布教育结束,不仅因为学生可以用它做家庭作业,还因为ChatGPT可以提供比许多教师更多的信息。根据古典哲学,人工智能似乎已经征服了另一个定义人性的领域:理性。恐慌随着生存领地的进一步丧失而加剧。随着气候崩溃和机器人起义唤起末日,人类历史的末日想象愈演愈烈。末世对现代人来说并不陌生。事实上,在卡尔·洛维特(Löwith)1949年出版的《历史上的意义》一书中,这位哲学家表明,从黑格尔到伯克哈特的现代历史哲学是末世论的世俗化。无论是耶稣基督的第二次降临,还是仅仅是人类二人组的形成,历史的终结都是超越内在的原因。这种圣经或亚伯拉罕对时间的想象提供了许多对人类存在的深刻反思,但也阻碍了理解我们的未来。20世纪60年代,汉斯·布鲁门贝格(Hans Blumenberg)反对洛维特关于世俗化的论点,以及卡尔·施密特关于“现代国家理论的所有重要概念都是世俗化的神学概念”的主张。布鲁门贝格认为,将现代理解为神学概念的世俗化或换位会破坏现代的合法性;现代性的某种意义仍然与神学的世俗化密不可分。同样,人工智能的新颖性和重要性被末世论的想象、机器的现代刻板印象和工业宣传所掩盖。这并不是说我们应该否认气候变化,抵制人工智能。相反,应对气候变化应该是我们的首要任务,发展人类与技术之间的富有成效的关系也是如此。但要做到这一点,我们必须对人工智能有足够的理解,而不仅仅是技术上的理解。火车、汽车以及后来的飞机的发明也引发了心理和经济上的巨大恐惧,但今天很少有人担心这些机器会失控。相反,汽车和飞机是日常生活的一部分,通常象征着兴奋和自由。那么,为什么人们对人工智能如此恐惧呢?要理解这股以ChatGPT为前沿的新技术浪潮,我们可以从约翰·塞尔1980年著名的中文屋思想实验开始,该实验以逻辑推理为幌子,掩盖了计算机器最令人讨厌的刻板印象。在这个思维实验中,塞尔想象自己独自一人在一个房间里,根据用英语编写的符号处理程序执行指令,以便对用中文编写的输入做出反应,然后溜到门下。赛尔在实验中不懂中文:“我不懂中文,无论是书面的还是口头的,而且……我甚至不相信我能把中文写作识别为不同于日语写作或无意义的歪歪扭扭的中文写作。”然而,他认为,只要有一套正确的指示和规则,他可以以一种让房间外的人相信他懂中文的方式做出回应。简单地说,塞尔断言,仅仅因为机器能够遵循中文指令,并不意味着机器理解中文——这是所谓强人工智能(与弱人工智能形成对比)的标志。理解首先意味着理解语义。虽然语法可以硬编码,但语义会随着情况和环境的变化而变化。塞尔的中文屋适用于一台仍然像18世纪机器一样运行的计算机,比如消化鸭或机械土耳其人。然而,这不是我们今天要处理的机器类型。乔姆斯基、伊恩·罗伯茨(Ian Roberts)和杰弗里·瓦图穆尔(Jeffrey Watumull)声称ChatGPT是“一个笨拙的模式匹配统计引擎”,这是正确的。然而,我们必须认识到,虽然模式是信息的主要特征,但ChatGPT所做的不仅仅是模式匹配。1988年,一艘军舰上的作战信息中心被提议作为中文屋的真实模拟
这种句法批判是建立在一种机械认识论的基础上的,这种认识论假设了线性因果关系——一个原因接着一个结果。人们可以颠倒这种因果过程,以达到最终的原因:原动机,第一个原因的默认,以及所有线性推理的最终命运。与线性因果关系和机械主义哲学相比,18世纪兴起了基于有机体的哲学思维,伊曼纽尔·康德的《判断力批判》是最重要的贡献之一。正如我之前所说,康德强加了一个新的哲学化条件,即哲学必须成为有机的;换言之,有机性标志着哲学思维的新开端。今天,重要的是要认识到康德建立的哲学化条件在控制论之后已经结束。控制论是诺伯特·维纳在1943年左右创造的一个术语,由一群科学家和工程师开发,他们在40年代末和50年代初参加了梅西控制论会议。西蒙东认为,控制论旨在成为一门能够统一所有学科的普世科学,这是对18世纪百科全书主义的新改编。控制论使用反馈的概念来定义一种新的“控制论机器”的操作,这种机器不同于17世纪的“机械机器”。维纳在其1948年的开创性著作中声称,控制论克服了以牛顿和柏格森为代表的机械论和生命论之间的对立,因为控制论机器是基于一种新的非线性因果关系形式,或递归性,而不是基于一种脆弱而无效的线性因果关系——脆弱是因为它不知道如何调节自己的运行模式。想象一下一块机械手表:当其中一个齿轮出现故障时,整个手表就会停止工作。有了这种线性机制,如果不彻底升级硬件,推理速度就不会呈指数级增长。
如果说机制和有机体之间的对立是现代哲学的一场大辩论的特征,决定了它的发展方向,那么这场辩论一直持续到今天,当时许多诋毁人工智能和ChatGPT的言论都认为机器只是机械的,因此无法理解语义。当涉及到语义时,声称机器只是对人类理解的失败模仿也是错误的。哲学家和认知科学家布莱恩·坎特韦尔·史密斯尖锐地批评了这种拟人化的思维,为机械的意向性辩护。对他来说,即使在机器中没有发现人类的意向性,它仍然是意向性的一种形式;它是语义的,即使不是人类语言的意义。拟人化语义与机器语义的这种分离是重新思考我们与机器关系的基础,但这只是第一步。塞尔的论点从根本上忽略了当今机器执行的递归计算形式。有人可能会争辩说,计算机科学不应该与控制论混为一谈,因为控制论是一门过于笼统的科学。然而,人们也可以考虑哥德尔的递归函数及其与图灵机和阿隆佐·丘奇的lambda演算的等价性(计算史上的一个著名故事)。“递归性”一词不仅属于控制论;它也属于后机械主义思维。控制论的出现只是宣布了在控制论机器中实现这种递归思维的可能性。正如戈特哈德·冈瑟和吉尔伯特·西蒙东正确地观察到的那样,今天在机器中发现的“智能”是一种反映操作的形式。对冈瑟来说,控制论是黑格尔逻辑的实现,而对西蒙东来说,康德只是在《判断力批判》中对反思性判断的阐述中才提到了控制论。“反思思维”通常与人有关,而不是与机器有关,因为机器只执行指令,而不反思指令本身。但自从20世纪40年代引入控制论以来,这个术语也可以描述机器的反馈机制。机器中的反思思维对没有准备好接受其存在的人类具有惊人的力量,即使是作为一种纯粹形式的初步和基本的反思形式,因此不足以处理内容。在这里,我们可以理解ChatGPT对于杨立昆(Yann LeCun)这样的计算机科学家来说是如何“不是特别创新”和“没有革命性”的。只有通过处理内容,机器才能走向所谓的技术奇点。到目前为止,奇点仍然是一个神话——当被描述为不久的将来时,它是一个误导性的,也是有害的。递归机器,而不是线性机器,是理解人工智能发展和进化的关键。人类将如何面对这种新型机器?西蒙东提出了一个类似的问题:当技术变得能够反思时,哲学的作用是什么?布莱恩·坎特韦尔·史密斯(Brian Cantwell Smith)认为,人工智能仅限于清算能力,而非判断能力,但很难说这种区别还能持续多久。也许在区分机器和人类方面损失了太多的智力。卢克·天行者测试他的假手,L型手980。
存在于机器中的现实与人类操作的现实是分离的。技术进化的不可避免的过程是由非线性因果关系的引入驱动的,使机器能够处理偶然性。能够深度学习的AI是一种能够辨别诸如噪音和故障等偶然事件的机器。它可以区分无组织的输入和必要的输入。通过解释偶然事件,GPT改进了其决策模型。但即使在这里,机器也需要人类区分正确的决定和错误的决定,以便继续改进。在发展中国家,一种新型廉价劳动力雇佣人类来告诉机器结果是否正确,无论是面部识别扫描还是ChatGPT响应。这种新的劳动形式利用了在我们互动的机器后面无形地工作的工人,但却经常被对资本主义的普遍批评所忽视,这些批评哀叹自动化不足。这就是今天马克思主义技术批判的缺漏。西蒙东在《论技术对象的存在方式》中提出了一个关键问题:当人类不再是信息的组织者时,他们能扮演什么角色?人类能从劳动中解放出来吗?正如汉娜·阿伦特在西蒙东的书同年出版的《人类状况》中所怀疑的那样,这样的解放只会导致消费主义,让艺术家成为“最后一个能够创作的人”。消费主义在这里成为人类行为的极限。阿伦特从人类现实的角度看待机器,认为机器取代了制造者,而西蒙顿则表明,无法处理和整合机器的技术现实将导致人与机器、文化与技术之间的不幸对抗。这种对立不仅是恐惧的根源。它也是基于对工业宣传和消费主义所塑造的技术的一种非常有问题的理解。正是从这种消极性中成长出一种原始的人道主义,将爱视为人类的最后手段。西蒙东提出这些问题已经60多年了,但这些问题仍未得到解决。更糟糕的是,它们被技术乐观主义和文化悲观主义所掩盖,前者促进了无情的加速,后者起到了心理治疗的作用。这两种趋势都源于对机器的拟人化理解,即机器应该模仿人类。(西蒙东强烈批评控制论持有这种观点,尽管这并不完全合理。)如今,这种模仿观点最具讽刺意味的表达是在艺术领域,试图证明机器可以完成巴赫或毕加索的作品。一方面,惊慌失措的人类反复询问什么样的工作可以避免被机器取代;另一方面,科技行业有意识地用机器自动化取代人工干预。人类生活在这个行业自我实现的替代预言中。事实上,该行业不断通过宣布这项或那项工作的结束来再现替代的话语,就好像革命已经到来,而社会结构和我们的社会想象保持不变。在资本主义社会中,替代的话语并没有转化为解放的话语,在所谓的共产主义社会中也没有。公平地说,一些加速主义者意识到了这一点,并试图复兴马克思关于完全自动化的愿景。如果高中物理更受欢迎,我们会对加速度有一个更微妙的概念,因为加速度并不意味着速度自身的增长,而是速度值的增加。主流话语并没有详细阐述人工智能发挥假肢功能的未来愿景,而是将其视为挑战人类智慧和取代智力劳动。今天的人类没有梦想。如果说飞行的梦想导致了飞机的发明,那么现在我们对机器的噩梦愈演愈烈。最终,技术乐观主义(以超人文主义的形式)和文化悲观主义在对世界末日的预测中相遇。人类的创造力必须朝着完全不同的方向发展,将人机关系提升到替代的经济理论和互动的幻想之上。它必须走向生存分析。技术的假造性质必须在其功能之外得到肯定,因为自人类诞生以来,获取真相一直取决于工具的发明和使用。这一事实对许多人来说仍然是看不见的,这使得机器进化和人类存在之间的冲突似乎源于一种深深植根于文化的意识形态。我们生活在以文化为代表的各种积极反馈循环中。自现代工业社会开始以来,人体一直服从于重复的节奏,因此人类的思想也被工业的预言所包容。无论是美国梦还是中国梦,巨大的人类潜力都被消费主义意识形态所压制。过去,哲学的任务是限制机器产生的傲慢,并以真理的名义将人类主体从反馈循环中解放出来。今天,技术哲学家们反而急于确认这些反馈回路是文明的必然之路。人类现在认识到技术的中心地位,希望解决所有问题,就好像它们是技术问题一样。速度和效率统治着整个社会,就像它们曾经只统治着工程学科一样。教育工作者希望在几年后实现范式变革的愿望,破坏了对技术问题的任何根本反思,我们最终再次陷入反馈循环。因此,大学继续为科技行业培养人才,这些人才继续开发更高效的算法,以利用用户的隐私并操纵他们的消费方式。对于大学来说,处理这些问题应该比考虑禁止ChatGPT更为紧迫。人类能逃脱这种深深植根于当代文化的自我实现预言的正反馈循环吗?1971年,格雷戈里·贝特森描述了一个诱捕酗酒者的反馈回路:一杯啤酒不会杀死我;好吧,我已经开始了,第二个应该没问题;好吧,已经有两个了,为什么不三个呢?如果幸运的话,一个酒鬼可能会通过“触底”——例如,通过在致命疾病或车祸中幸存下来——来摆脱这种正反馈循环。那些幸运的幸存者随后与神建立了亲密关系。人类,现代酗酒者,凭借他们所有的集体智慧和创造力,能逃脱这种跌入谷底的命运吗?换言之,人类是否可以采取激进的转变,将创造力推向不同的方向?
这样的机会不正是由今天的智能机器提供的吗?作为假肢而不是死记硬背的模式追随者,机器可以将人类从重复中解放出来,并帮助我们实现人类的潜力。如何获得这种变革能力本质上是我们今天关注的问题,而不是关于机器是否能思考的争论,这只是生存危机和超越幻觉的表达。也许一些关于人机关系的新前提可以解放我们的想象力。以下是三个(当然还可以添加更多):1)与其暂停人工智能的发展,不如暂停对机器的拟人化刻板印象,发展一种适当的“假肢文化”。技术应该被用来实现其用户的潜力(在这里,我们必须与阿马蒂亚·森(Amartya Sen)的能力理论进行对话),而不是成为他们的竞争对手或将他们简化为消费模式。2) 与其让机器和人类感到困惑,不如了解我们当前的技术现实及其与不同人类现实的关系,以便将这种技术现实与它们结合起来,以保持和再现生物多样性、无多样性和技术多样性。3) 与其重复世界末日的历史观(这一观点以最世俗的形式在科耶夫和福山的《历史的终结》中表达),不如将理性从走向世界末日的命运之路中解放出来。这种解放将开辟一个领域,让我们能够试验与机器和其他非人类相处的道德方式。没有一项发明是没有约束和问题的。尽管这些限制更多的是概念性的,而不是技术性的,但忽视概念恰恰是让邪恶滋生的原因,因为这是形式超越地面的变态的结果。只有当我们摆脱文化偏见和科技行业自我实现的预言时,我们才能对未来的可能性有更深入的了解,而这不能仅仅基于数据分析和模式提取。很可能,在我们到达那里之前,我们这个时代的工业预言家已经意识到,机器比他们更好地预测未来。
文章采编:王抗
排版:初尧
审核:王抗
各位思庐的读者朋友们,思庐独立开发的“哲学主题桌游”项目正在火热筹备中,小伙伴们快来扫码填写问卷
,提出自己的看法吧!你的意见,会直接决定我们推出一款怎样的游戏🎮

点击阅读原文,尽览思庐锐评!