Py学习  »  chatgpt

工具依赖的认知风险——ChatGPT工具性与创造性迷思

刘德寰 • 3 月前 • 138 次点击  

导  读

  本文试图从ChatGPT的工具性与创造性迷思入手,探讨人类在人机互生的媒介环境下所面临的处境难题,以及我们该如何在技术迷思之中自处。


引  言

如同认识论学说长期有着经验主义和理性主义两大派系之争,AI领域也有着经验主义AI和符号主义AI的分歧。理性主义者强调知识来自纯粹的理性思考,基于这一认识论诞生的符号主义AI注重数理逻辑下的精确定义任务和严密推理。于1997年推出并成功在标准国际象棋比赛中打败对手并卫冕世界冠军的“深蓝”和于2011年在美国最受欢迎的智力竞猜节目《危险边缘》中战胜过去最强人类选手,随后被运用于基因组学领域的“沃森”,都是这一AI类型的杰出代表,旨在基于一套完备且可被追踪理解的运算规则诞生唯一结果。而经验主义者认为感性经验是知识的来源,一切知识都通过经验而获得。遵循这一学习和“思考”路径的经验主义AI不追求逻辑和解释,只关注输入和输出之间的映射关系 [1],利用神经网络对海量数据的“暴力”拆解和学习,直接轰开问题的大门,引发全社会AI热潮的ChatGPT便是这一类型的最新代表。

有很多话语可以描述ChatGPT给人们带来的震荡,英伟达CEO黄仁勋将其评价为“人工智能的 iPhone 时刻”,比尔·盖茨断言这是“另一次工业革命爆发的迹象”。显然,ChatGPT的横空出世,使得所有人对于人工智能、对于未来技术的想象都有了一个具象的载体,似乎它直接指向一种未来的社会形态,且关乎所有人。“关乎所有人”确实是ChatGPT一大特征。归纳文本、撰写计划书、分析数据、创作艺术作品、生产代码……其对社会生产和日常生活的深度浸透已经随处可感。“ChatGPT的使用感受”成为一个大众午餐闲聊时段也颇为常见的话题。而根据Nature的一项调查,在最追求前沿性和创造性的学术领域,有超过78%的研究者参与研究或使用人工智能。以ChatGPT为主的生成式人工智能被广泛用于编写代码、开阔研究思路、撰写文献综述和回复行政邮件等事务上[2]。

作为一个归纳面更宽、学习能力更强、具有强大的文本生产能力的AI,ChatGPT突破了过去AI仅能分析、推算已知结论的局限,转而生成使用者的“未知”,变得更“善解人意”和更具启发意义,也促生了一种新的人类生存方式。


从人机共存到人机互生:

一种新的生存方式

从技术诞生之日起,其就以协助人类解决问题的方式,不断对人类能力提供支持,如以机械方式扩展和增强人类的肢体和感官能力[3]。而计算机的出现促使技术脱离“人类的工具”这一人类主体视角,起源于20世纪的CASA范式和机器等同理论等都已证明计算机作为主体的合理性。彭兰教授将人机交流定义为“同为传播主体的人与机器之间的直接互动”,强调其与人际传播的类似性[4],人与机器的共存已经成为共同的认知。

而ChatGPT的出现,将人与机器的关系推向新的维度。一方面,ChatGPT承袭智能机器的特质,模拟并延伸了人类大脑的功能,被赋予了人类智能的特性,拥有了一定程度的能动性,成为外接的“超级大脑”。另一方面,随着机器认知的增强,它跳出对预定程序的简单执行,进行创新性探索,逐渐成为人认识世界、连接社会的智能中介,并在这一过程相互促进、相互激发——人通过ChatGPT连接海量数据,拓宽认识的边界;而ChatGPT在人的一次次提示与修正中学习、成长和更新,建立新的“思考链路”。而其对日常生活的浸入和大范围使用,使得更多人的认知通过ChatGPT相互影响、相互串联,构建广泛而深刻的“人-机-人”的认知体系。

ChatGPT将更多使用者编织进了一张紧密的技术网络中,人与机器的认知相互交融、难以辨别。人类和机器的关系不再是共生,更非纯工具性的辅助,而是人类与机器的相互激发与演进,并且这种互生与共进重点体现在了认知层面。关于ChatGPT所有未来想象的一大基础,即是它对人类认知的支撑、促进还有干预。


认知逻辑与ChatGPT工具依赖

关于“什么是认知”这一问题,不同学科有着不同的见解,尚未达成一个统一的定义。认知语言学关注于人们理解语义的框架,并将其视为信息加工的一部分环节。认知科学将认知概括为遵循特定程序和规律的计算系统,涵盖人类获取、存储、交换、加工、利用、再生产信息的多个机制。认知心理学将认知作为专门的领域,将记忆、学习、语言等因素纳入考虑的范畴。而随着认知科学领域“4E+S”[“4E”即体化(embodied)认知、嵌入(embedded)认知、生成(enacted)认知和延展(extended)认知理论,“S”指的是情境(situated)认知理论]理论范式的产生,情景因素在认知中的作用被强调。Wilson与Rowlands提出认知主体嵌入在环境中,通过其与环境的相互作用,动态生成认知,并随着进一步的互动,将自身的认知再度延展到环境之中[5]。尽管关于认知的理解各有侧重,但是人类认知可以被抽象概括出两个特点,一是人类作为主体的能动性的发挥,二是对现实情境的感知与互动。诚然,感知与感受是人类理解社会的基础,人类在此基础上探索和创新,而这恰好是机器所无法理解的。

人类认知的逻辑是收集、感知、消化和发散。人们通过自己的生活经验、主体感知和私人化的心智活动,利用理性的思维能力判断事物的因果与逻辑,从中抽象出一定的规律。而ChatGPT则是以大数据为知识根源,利用提示词和对历史数据的梳理,对筛选出的词语进行整合[6],最终形成新的文本。以撰写一篇文章为例,人类往往会通过自己的知识积淀和生活理解,辅以新的资料,找到文章框架并基于这一逻辑撰写。而ChatGPT则根据相关提示词,不断执行一个任务,即:鉴于到目前为止的文本,下一个词应该是什么?并利用训练数据库生产一个与任务相关的、带有概率的单词列表。而为了避免只选用最高概率词语带来的“平庸”问题,ChatGPT自带的控制参数调控了不同排名词语被使用的频率。接下来不断重复这一过程选择单词,最终生成一篇完整的文章[7]。总的来说,ChatGPT是基于信息论“概率”基础上的自然语言处理,其本质逻辑是寻找相关的相关,并利用全面数据化的生产模式进行内容生成。

ChatGPT的使用已经进入从生活到生产的方方面面,并大有形成普遍依赖的趋势。传统的媒介依赖理论通常把对媒介的依赖分为精神性依赖和实用性依赖。但对ChatGPT的依赖是一种认知依赖,而由于认知是人类自我对话、与外界产生联系与交互的桥梁基础,因此认知依赖与生存依赖息息相关。对ChatGPT和人类认知差异的讨论,正是基于学者们对其提出的主要担忧和质疑,缺乏“在世之中”的实践,ChatGPT所生成的信息,真的是一种能够解释世界、形成真实认知的语言吗?而如果这种认知工具形成依赖,又会对人类社会产生怎样的影响?

由于ChatGPT的工具性和创造性往往被视为其最显著的两个属性,因此本文试图从这两个视角出发,探究ChatGPT技术神话背后存在的迷思。


工具和创造者:

智媒时代的反向驯化与神话

“驯化”一词最初源于生物学,指在动物先天本能的基础上,经过人为的干预和训练,形成新的条件反射的过程。希尔弗斯等人将这一概念引入社会学领域,指代人类通过日常生活的使用,规训媒介使用形态的过程[8]。然而,埃卢尔的技术哲学认为技术的进步让人类变得越来越依赖机器,“技术不仅仅是一个工具和机器的集合,它还是一个复杂的社会和文化系统,塑造了我们的价值观、信仰和行为,有一种扩张和自主的趋势”。当技术脱离工具本身,脱离外部实体,代表一种秩序和认知,甚至成为一种社会结构后,其与人类的矛盾关系也由此产生。人类在进行技术变革的同时,也受到技术的制约与约束,使其在无意识、非自主的情况下嵌合进技术的使用形式中,接受来自技术的反向驯化。而这种媒介化的生存方式进一步绑架个体的社会交往[9]。在以ChatGPT为代表的生成式人工智能逐步演变为一种生活方式的当下,这种反向驯化的趋势也更加明显。

(一)人的延伸还是人的假肢:ChatGPT工具性迷思

麦克卢汉的“媒介延伸论”给人与媒介的关系提供了一个经典的视角,但ChatGPT似乎在其他机器智能支持、驱动或激发人类的知识生成上更进一步,直接替代人类去感知社会,连接知识和他人,甚至代替人类思考,进行作品的创作,反向塑造人的认识方式。此刻,媒介变成了一种假肢。它不再是辅助性的感官延伸,也不是原有直觉的“放大器”,而是一个新的主体,甚至是一个新的大脑。人类对ChatGPT的工具依赖,逐步变成一种肢体的改造。

1.连接泛在下的信息迷雾。人工智能领域的先驱、“贝叶斯网络之父”Judea Pearl曾指出,机器学习不过是在拟合数据和概率分布曲线。变量的内在因果关系不仅没有被重视,反而被刻意忽略和简化。简单来说,就是重视相关,忽视因果[10]。而作为机器学习“集大成”的ChatGPT,同样面临这一问题。ChatGPT帮助人类缩短了他们与知识的距离,辅助人类在庞大的数据中构建了一个简化的信息通道[11]。但是随机和概率生成的内容的逻辑性难以被剖析,其正确性与精准性也难以被证实。忽略对现实因果关系的考量与测量,仅依靠过去文本的相关将词语拼凑和串联,意味着结果具有更多的不确定性。而当其被广泛应用于研究领域时,将进一步放大大数据的科学生产本就存在的弊端,即对数据规模的过度追求、对数据关联趋势的过度关注和对因果关系的削弱以及最终结果的模糊性[12]。长此以往,研究者会陷在海量信息的迷雾中,丧失对真实社会因素的探寻。而这样的趋势同样存在于其他使用领域中,面对陌生的领域和新的环境,人或许会放弃利用自身感知进行理解,只依靠人工智能建立起不知来自何处、又通向何方的连接。同时,数据的广泛连接让人难以仅依靠自身能力来建立大数据框架下的认知,只能更多寻求人工智能“假肢”的帮助,进一步加深依赖。

而ChatGPT对人类的理解更多是基于对人类符号的分析,与人类达成表面的“相近性”,而这种相近性究竟是便捷的桥梁,还是蒙蔽人真实感知和自主性、看似充满逻辑实则碎片化的信息迷雾,我们不得而知。

2.算法拟态下的茧房。人类越来越多通过ChatGPT理解世界,建构自身的认知,但ChatGPT与真实世界存在隔膜,而在看似便捷的信息通道上,很可能存在着一个透明的茧房,贩卖着连接所有知识、拓宽自身边界的美好幻想的同时,隐蔽地包裹着人类对真实社会的触觉,将其置身于一个由海量数据构成的拟态环境中。

一方面,这种茧房的构成源于这套系统和数据本身的局限。在ChatGPT特定的算法逻辑下,某些信息可能会优先被机器选择或过滤掉,不在数据库中的内容也无法被纳入分析。而由于最终生成的内容需要使用者利用提示词进行范围限定和引导,因此使用者个人的态度和原有的认知也会影响到ChatGPT对呈现内容的选择。此外,开放的学习路径也让ChatGPT对数据的理解和分析更加不可控,训练数据所暗含的价值观可能也会促使偏见的形成,人类与人工智能之间会产生相互诱导性,比如性别歧视、种族歧视等。而由于ChatGPT本身不具备判断能力,加之人类语言本身的复杂性,因此生成的内容可能存在捏造和理解错误的情况。而在生成机制的引导下,这些错误的内容往往看起来正式而客观,且存在判别标准的模糊,挑战了现有的证据和真相标准。如未经过求证和辨别,使用者容易将这些数据偏差的结果当成认知的素材。

而茧房的形成同样来自使用者自身。为了更好地与数字环境进行互动,社会个体逐渐学习、接纳并采用机器的思维方式,其中包括对数据化思考、符号式语言、格式化流程的使用。这将会导致人类系统化、模式化认知的减少,进一步削弱人的生活经验和个人感知的作用,转为利用数据海洋抽出的只言片语形成碎片化的信息认知。此外,由于这种信息的投喂仅仅针对个体,因此造成的偏误更难被纠正。而与机器的交流的增加,可能会导致他者伦理减少、工具理性等思维方式和行为惯性出现,带来现实交往的塌缩。

3.科学神话下的他者。移动互联网的兴起使得互联网的“接入沟”几乎被填平,但“使用沟”和“效果沟”被逐渐拉大[13]。而ChatGPT的出现则促使新的媒介使用方式和新的媒介社会形态出现,所有的沟壑都变得更宽、更深。

首先,ChatGPT相较于其他AI系统的低门槛,体现在使用者能够使用自然语言与机器进行有效的沟通,而机器能够基于大语言模型理解复杂文本并进行内容生成。但这种看似低门槛的准入标准本身就建立在一个高门槛的机制和群体上,即那些受过高等教育,有意使用、会使用且能够使用“高阶技术工具”的人群,他们被科技赋能,享受更多红利。可以说,ChatGPT只是降低了那些本来就离智能技术很近的人群的使用门槛,但对于那些本就被排除在智能技术外的人群,ChatGPT可能将其推得更远。

其次,ChatGPT最终呈现出的结果质量几乎直接与它所得到的指令挂钩。因此,如何给出提示词,提供更多关键性信息,帮助大模型激活有用的关联度成为提升ChatGPT使用水平的重要因素[14]。而如何与机器沟通、交流也因此成为未来媒介素养的一部分,对人类的媒介使用提出新的挑战。

最关键的是,ChatGPT不仅存在实际使用中的差异,更会造成一种想象中的分割。它离人类足够近——因为它嵌合进日常生活;它又离人类足够远——因为它的机制、逻辑是不可视的黑箱,更何况其背后的计算机原理本就存在较高的壁垒,这使得人类对其日常使用的工具产生一种“全无知”的陌生。谭小荷指出ChatGPT催生了“技术决定论”的内化,因为能动者困在抽象的、客观的、“不以个人意志为转移”的力量中。技术的复杂与不可理解性让人们不得不将自己放在只能“乐成”,而无法“虑始”的被动状态上。在一项关于ChatGPT使用的访谈中,多名被访者(多为拥有较高学历,且从事技术工作等具有较高门槛的职业)称自己为“科技小白”“不懂技术的局外人”,甚至“完全不具备参与讨论的资格”[15]。

显然,ChatGPT在人群中广泛应用的同时,也将人群粗暴划分成了“懂技术的专业人员”和“无知的普通人”两类,人们将对工具的了解转变程度转化为衡量自身的尺度,建构出来“无能的主体”[16]。倘若更多人因“不懂技术”“没有资格”而将自己看作技术的“他者”,主动排除在讨论之外,那么技术权力将继续流向少数人手中。

(二)拼凑还是创造:ChatGPT创造性迷思

在关于ChatGPT的所有讨论中,有一个问题关乎人的独特性和立身发展的可能,即ChatGPT是否具有创造性?

不可否认的是,ChatGPT的最大特点就是不再仅基于原有数据进行分析归纳,而能够进行新的生成。对于个体而言,ChatGPT能够帮其围绕提示词给出“不知道”甚至“不知道自己不知道”的内容,在这一维度上来说,ChatGPT往往被视为一个会替代人类创造性的创造主体。但是,“创造”或许是一种客观行为或实体,但“创造性” 是一种“意义”。作为一种由创造力产生的性质,它并非孤立地产生于作者、作品或受众中的某一方,而是由三者共创[17]。王天恩也认为“信息既不是物质也不是能量,而是感受性关系”[18],也就是说对这一标准的判断离不开社会情境中其他主体的共通感知。

Google DeepMind发布的一篇论文颇有新意地指出大语言模型的本质是一个与电脑里常用的文件压缩zip算法类似的压缩器[19],内核是将所有的高质量文本、程序、数学、对话数据压缩到算力允许的最大模型里,并在压缩的过程中抽象出一定的思维能力,是“死记硬背”的大量训练,缺乏推理引擎的支撑。而MIT学者罗鸿胤提出ChatGPT的生成机制类似一个醉酒的人。后者能够依靠语言本能,在思维混乱的状态下进行文本的补全,ChatGPT的超强算力赋予其更强的文本补全能力,但同样不存在可控、准确的思维逻辑[20]。

回到社会科学领域,有学者提出创造力的关键元素是自主性、意向性、意识、价值观、情感以及超越“已知”建立“未知”的能力,而ChatGPT的生成机制表明,这些都是其所不具备的感知和能力[21]。如果人脱离这些因素去讨论创造,那么必然会陷入一种数据主义和唯工具理性论的认知窠臼。

1.原创性疑问与人的悬置。创造性往往意味着具有原创性的“一阶知识”的产生,而ChatGPT的生成是一种“从有到有”的生成,即基于数据库中的“有”,生成另一种暂时不为使用者所知的“有”,而非“无中生有”的原创性过程。即是一种基于输入数据内容的“传承式”的生成,而非“突破式”的生成。此外,人类创新的第一步往往是问题的提出,但是ChatGPT并不具备从现有秩序中发现问题、提出问题的能力。可以说,ChatGPT很大程度上能扩展使用者的个体认知边界,但并不能拓宽人类知识的边界。

人类的语言之所以独特,是因为它是人类思维方式的载体和自我意识的反映,但作为一种符号化的、客观化的话语网络[22],ChatGPT所生产的语言并不包含自身的经验,其本身也不能解释其中的所指、能指和逻辑关系。因此,ChatGPT生成的文本内容可被视为一种数字化的、二阶信息的类语言。

舒茨提出的“手边知识库”概念,强调知识库中包含大量的人类内在经验,理论与应用科学的程序经验、支配规则以及实用的与道德的经验规则[23]。这些经验产生的知识是个体了解世界,与他人进行交流与交往的基础,人对世界的认知并不仅仅依靠信息尤其是二阶信息,因此把ChatGPT视为一种“全新知识生产方式”的观点,可能忽略了知识的哲学内涵(即“被验证的真信念”),也忽略了真正推动人类进步的“新”的本质。

ChatGPT的创新是一种基于人类历史数据的结构式模仿和系统化生产,因此某种程度上是“假性创造”,人类对其的依赖会导致创造性变为历史文本的拆解和排列组合,自身能动性被技术的方式替代,抑制了人类的发散与思维。这可能使得人类的语言、人类的知识和人类本身被悬置在创造的过程中。

2.感知的衰弱。人类理解世界、塑造认知的过程通过两条并行的路线实现。一是自己直接的实践、观察和信息的接收。二是大脑对世界的多层次联想,对动作与情感经验的模拟演绎,还有灵感、顿悟等非理性过程。总体来说是发散、沉浸但具有一定认知逻辑的认知过程。而与之相反,ChatGPT是一种没有逻辑结构但具有纯粹理性和纯粹规律性的生产,当这种规律性和寻找相关性的生产方式成为习惯后,人类会将社会的一切事物都按照技术的逻辑进行解释,人类自身的认知规律受到冲击,进而丧失对更广阔、更真实世界的深度感知和响应。

当个体生命长期持续且被动地接受这种来自算法的反向驯化时,强调感知的人类文化被替代和被削弱,进而形成芒福德所认为的整齐划一的、机械式的生存秩序与行动规制“巨机器”[24],人类便从社会的创造主体,变为社会承载信息的“器物”。


我们的生存法则:回归人的主体

由于AI技术现实与未来可能的巨大不确定性,关于其对人类社会产生的影响,不论是技术专家、社科学者还是普通使用者,都有着截然不同甚至自己都感到矛盾的想法,无法用悲观和乐观进行划分,也难以用“技术决定论”“社会决定论”去概括。如学者谭小荷所言,人们关于AI的技术想象是如Deleuze的“褶子”概念般,充满了非线性的、多重的、复杂混沌性的思维方式[25]。

本文以批判的视角,指出ChatGPT的工具性和创造性存在的迷思,以及这种工具依赖可能给人类带来的认知风险。但是,本文无意从本体论或存在主义的视角辩驳ChatGPT等生成式AI被外界所赋予的革命性意义,更无意从“机器不能而人可以”的视角,为人类的优越性进行辩护。事实上,本文是在充分承认ChatGPT对人类生产力的解放和促进的基础上,从神经网络技术的原理和人类认知的实质出发,为人类该如何在人机互生的媒介环境下生存提供一些思考。

Papacharissi指出,在AI时代,人们利用技术来重新想象自己是谁,个体在与特定技术的交互中使自己形成新的意义的方式,都是对“网络化自我”的探索[26]。“把自己当作技术的主人”这样的宣言在当下的时代或许显得不合时宜,但我们至少可以回归人的主体,明白知识的最终来源是真实世界的实践,认知的形成离不开感知和文化的共同作用。不要陷入信息技术的迷思,把狭窄化、浅表化和符号化的数据环境当作真实的人类文明。同时意识到算法的非中立性和数据包含的价值观与政治属性,时常对信息与权力结构的关系保持批判与质疑。

或许OpenAI投资人里德·霍夫曼提出的使用ChatGPT的关键原则,能够帮我们具象化地理解我们该如何自处,又如何在人机互生的环境中找到便捷、智能与主体性的平衡。

原则1:将GPT-4视为本科生水平的研究助手,而非无所不知的预言家。

原则2:把自己当作导演,而非木匠。

原则3:勇敢尝试!

芒福德指出,技术开发与工具运用应遵循心灵优先和环境均衡之原则,重申人类的实践主体性与人类需求的合理规定性,将人类从技术的束缚之中解脱出来,回到现实的生活中[27]。我们始终关注的,应该是人类自身。而那些人所具有的感性、情感、跳脱的思维、对世界的好奇与关注、对事件的质疑和对自我的反思——那些非理性的思维方式和看似影响发展效率的“人性缺点”,正是我们之所以为人的基本。

【本文为国家社科基金重大项目“建立全媒体传播体系研究”(批准号:20ZDA057)阶段性成果】


参考文献:

[1][20]罗鸿胤.MIT学者独家撰文:ChatGPT的瓶颈与解药[EB/OL].(2023-11-15).微信公众号“甲子光年”.

[2]Van Noorden R,Perkel J M. AI and science: What 1,600 researchers think[J]. Nature,2023,621(7980):672-675.

[3]刘德寰,朱琦.颠覆与重塑:下一代人工智能的传播学意义[J].新闻爱好者,2023(09):4-10.

[4][17][21]江潞潞.智能交往,未来已来——“激荡AIGC”数字交往八人谈观点综述[J].传媒观察,2023(03):48-54.

[5]霍华德·加德纳,心灵的新科学[M].周晓林,张锦,译.沈阳:辽宁教育出版社,1989:128-139.

[6][11]程思凡.ChatGPT知识生产框架、技术迷思与未来演进[J].当代传播,2023(06):60-64.

[7]ChatGPT 算法原理[EB/OL].(2023-02-16).https://blog.csdn.net/weixin_44292902/article/details/129062752.

[8]潘忠党.“玩转我的iPhone,搞掂我的世界!”——探讨新传媒技术应用中的“中介化”和“驯化”[J].苏州大学学报(哲学社会科学版),2014(04):153-162.

[9]刘千才,张淑华.从工具依赖到本能隐抑:智媒时代的“反向驯化”现象[J].新闻爱好者,2018(04):13-16.

[10]朱迪·珀尔,达纳·麦肯齐.为什么:关于因果关系的新科学[M].江生,于华,译.北京:中信出版社,2019:2-14.

[12]丁大尉.大数据时代的科学知识共生产:内涵、特征与争议[J].科学学研究,2022(03):393-400.

[13]刘德寰,洪馨仪.意义互联网的兴起——ChatGPT开启互联网第三次革命[J].编辑之友,2023(09):42-49.

[14]陈小平:人工智能正引发第一次重大社会实验[EB/OL].(2023-06-26).https://www.mss.org.cn/managesinfo_987.html.

[15]谭小荷.AI想象的展褶:技术乐观主义与无能主体的共生——以普通人对Chat GPT的社会技术想象为中心[J].新闻界,2023(11):52-65+96.

[16]Markha A.The limits of the imaginary:Challenges to intervening in future speculations of memory,data,and algorithms[J].NewMedia&Society,2020(22):382-405.

[18]王天恩.人工智能:人类认识自己的整体对象化[J].社会科学,2022(12):39-48.

[19]Delétang G, Ruoss A, Duquenne P A,et al. Language modeling is compression[J]. arXiv preprint arXiv:2309.10668,2023.

[22]弗里德里希·基特勒.留声机 电影 打字机[M].邢春丽,译.上海:复旦大学出版社,2017:9-18.

[23]赵万里,李路彬.日常知识与生活世界——知识社会学的现象学传统评析[J].广东社会科学,2011(03):198-205.

[24]吴国盛.芒福德的技术哲学[J].北京大学学报(哲学社会科学版),2007(06):30-35.

[25]吉尔·德勒兹.褶子:莱布尼茨与巴洛克风格[M]. 杨洁,译.上海:上海人民出版社,2021:4-43.

[26]Papacharissi Z.Introduction[M]//Papacharissi Z.ed. A Networked Self and Human Augmentics,Artificial Intelligence,Sentience.New York:Routledge,2019:1-9.

[27]芒福德.技术与文明[M].北京:中国建筑工业出版社,2009:320-323.




作者简介


@刘德寰

北京大学博雅特聘教授,北京大学新闻传播学科学术委员会主任,北京大学新媒体研究院教授、博士生导师、副院长,北京大学新闻与传播学院教授、副院长,北京大学市场与媒介研究中心主任。

 @程馨仪

北京大学新媒体研究院博士研究生


点击名片,关注更多精彩内容:




Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/180817
 
138 次点击