Py学习  »  chatgpt

高奇琦 张蓥文:主体弥散化与主体责任的终结:ChatGPT对全球安全实践的影响

政治学与国际关系论坛 • 1 年前 • 120 次点击  

点击上方可订阅关注我们哦!

想了解中华传统文化,这个号你别错过

欢迎关注“道中华”




高奇琦 张蓥文:主体弥散化与主体责任的终结:ChatGPT对全球安全实践的影响

作者:高奇琦,华东政法大学政治学研究院院长、教授、博士生导师;张蓥文,华东政法大学政府管理学院博士研究生

来源:《国际安全研究》2023年第3期,第3-27页,注释略。点击本文文末“阅读原文”可下载文章PDF印刷版。 国际安全研究ISS

微信平台编辑:周悦


内容提要

在人工智能时代,以ChatGPT为代表的人工智能通用大模型将可能冲击全球安全互动中的“主体责任制”,造成安全主体的模糊化与责任缺失、安全客体责任的离散化与安全责任追责难等一系列问题。由于人工智能技术由弱向强、迭代演进的技术发展逻辑,不同技术阶段的“主体性危机”与“责任危机”的形态和程度各异。在弱人工智能时代,低智性通用大模型的赋能作用可能会强化安全互动场域中的边缘安全主体责任。安全互动呈现出多重安全主体并存与安全客体责任离散的互动模式。在强人工智能时代,通用大模型被拟造为“类人”主体,成为多重安全主体中的一分子,安全互动呈现出无秩序形态。既有安全主体可能会表现出过度依赖算法和主体权力被侵蚀的特征,而安全客体则表现为普遍卸责和主体责任终结的特点。为解决上述问题,需要从安全主体互动的“主体间性”层面入手,在弱人工智能时代,可利用区块链与人工智能技术形成合力,并细化事前责任;而在强人工智能时代,则可凭借大国协调,在确立智能体“半主体”身份后,建立一种“监护人”制度,在主体间性的逻辑上开展全球安全实践。

关键词

人工智能通用大模型;ChatGPT;主体责任;全球安全

 一   引  言

近年来,国内外研究者研究人工智能技术在敏捷决策、复杂计算等领域的运用时,敏锐地察觉到人工智能技术本身会对全球安全实践造成潜在危害。与此同时,随着计算机技术与运力技术的飞速发展,人类正向着突破人工智能技术“奇点”(singularity)的门槛大踏步前进,一些突破性人工智能成果雨后春笋般破土而出。美国的OpenAI公司研发的聊天机器人程序ChatGPTGPT,生成式预训练转换器,Generative Pre-trained Transformer)作为人工智能通用大型语言模型(Large Language Models)的一种,一经问世便风靡全球。 具体来看,ChatGPT是美国OpenAI公司开发的一种由人工智能技术驱动的自然语言处理工具,开发者基于“自回归语言模型”(Auto-Regressive Language Model)、“人类反馈强化学习”(Reinforcement Learning from Human Feedback)技术架构与驯化模型,使其具备自然语言生成与错误更正能力。在上述能力的加持下,ChatGPT不仅可以同人类进行流畅的场景交流,还可替代人类从事文本撰写、方案制定、翻译等诸多事务。人们在看到ChatGPT带来极大便利性的同时,也对其安全性产生了广泛担忧。

目前,学界在研究人工智能的安全问题时,主要研究人工智能安全威胁的预防问题。例如,人工智能技术也会被应用于恐怖主义、经济诈骗等危及安全的事件,对此应如何预防? 需要注意的是,人工智能对安全领域的内生冲击与先前其他技术带来的安全冲击具有本质上的不同。在前两次工业革命中诞生的新兴科技,如蒸汽机技术、内燃机和电力技术,均不具备绝对主体性,作为辅助性工具,这些技术主体不具有独立思考的能力与拟人的特性。这些技术所造成的安全问题在本质上依然是“人”的问题,即“人”通过操纵技术给他者造成安全威胁,但在具备一定“主体”意义的人工智能大模型的冲击下,这一思路可能会被极大地颠覆。学界研究人工智能主体性问题的相关研究成果,主要涉及人工智能法理意义上的“主体承认”问题。不过,在国际法律法规与通行准则缺位、技术更新迭代频繁的现实情境下,这一问题目前还未有定论。

从以上讨论可引出一系列重要问题:人工智能是主体还是非主体?在人工智能产生安全风险后,应该是人类主体担责还是所谓的“智能体”来担责?无疑,这类问题将成为人工智能时代全球安全互动的重要争论。鉴于此,本文尝试从主体性的视角来研究通用人工智能时代的全球安全实践问题。通过考察安全领域中通用大模型主体与责任之间的互动耦合关系,本文提出一个基于主体间性的安全责任互动模式,以期对上述问题进行更为充分的解释,并对未来通用人工智能时代的全球安全实践具有一定的启发作用。
 二    安全应对的传统主体责任路径
尽管约翰·米尔斯海默(John Mearsheimer)等进攻性现实主义学者关于国际体系内充满危险的判断有些过度悲观化, 但不可否认的是,对每一个行为体而言,识别安全威胁、制定反击策略是必须面对的考验。研究这一主题离不开对两大问题的追问:一是从事安全活动的行为主体是什么?二是感知到不安全后应找谁负责?传统的安全应对思路奉行主体安全责任观念,而要厘清主体安全责任观念,则需要对其中两个关键概念(即主体与责任)进行研究。
(一)传统安全应对的二元属性:主体与责任
传统安全责任是在主体性概念的基础上进行阐发的。主体性问题是哲学研究的根本问题。关于主体性的研究,马丁·海德格尔(Martin Heidegger)在其著作《存在与时间》中,将“无世界的单纯主体”认定为传统哲学研究所理解的唯一真正主体, 而这一主体的建立基础是笛卡尔理论中的“精神—躯体”二元身心对立。马克思主义力图摒弃纯粹精神而无躯干的唯心主义研究思路,把主体视作具备理解与领悟能力的“人”。

在本文看来,人的安全涵括生命、经济、财产等诸多内涵。在国际层面上,国家是全球安全的实践主体。传统国际关系研究通常将国家人格化,将国家视为具备感知与领悟能力的主体。在物质层面上,国家是土地、建筑、人口乃至工业产品的笼统聚合体;在观念或精神层面上,由人组成的国家具备集体智力,拥有理解与感知问题的能力。从这个意义上来说,“国家”满足马克思主义哲学所要求的构成主体所需的全部必要条件。

与涉及主体性的研究不同,学界对责任的研究更加趋向于能动力层面。作为一个适用于社会学、法学、政治学乃至伦理学等多学科领域的交叉概念,责任在不同学科表述中表示不同的语义。在政治学视角下,责任被视作公共权力系统中政治官员因其居于系统内某些职位或位置而必须承担的职责义务。责任可以与结构现实主义理论中提到的“位置决定论”相类比。法学视角下的责任与惩戒性相关联,通常涉及履职失败与事后追责等被动事态。实际上,从责任的本体意义出发,我们可以将责任统摄为一个跨学科概念。责任可分为“积极责任”(positive responsibility)与“消极责任”(negative responsibility),前者意指社会个体或国家行为体基于当下结构位置与角色而应承担的相应责任(政治学语境下),后者则通常涉及责任主体在履责失败后而被他者强迫的追责和制裁(法学语境下)。

在安全问题的讨论中,安全被视作一种行为体互动衍生的关系性产物和一种“特殊的主体间行为”。安全不仅表现为主客观上的无威胁或是无恐惧状态,还表现为社会互动意义上的关系间“弱冲突”。主体和责任的结合会出现安全主体和安全客体(对象)之分。在安全场域下,单个行为主体同时具备安全主体与安全客体(对象)两种身份。从安全主体的角度来看,安全主体身份的责任可被概括为保护生存、财产等权利不受侵害,并在受到侵害后向威胁方进行追责;从安全客体的角度来看,责任则指在自我行为造成不良风险后应承担的相应后果。

从安全主体追责的角度来看,如果追责的对象是某个企业或个人,并且他们隶属于某一国家,那么国家可凭借强制性法律法规和暴力机器进行追责。而国际体系的无政府状态决定着追责行为是平行的主体间活动,不具备垂直层面的强制性。此时,主权国家常常代替本国受损的利益群体,向安全客体代为追责。从安全客体承担责任的角度来看,即使被追责的客体是某一非国家行为体,但客体的国籍隶属性质导致追责客体身份极易从非国家行为体向主权国家迁移。除此之外,追责行为的性质可能被解读为霸权干涉或权力博弈,而性质的演化无疑使追责过程更加复杂。据此,从主体和客体的指代角度来看,全球安全实践通常可被简约化为主权国家间的安全互动行为(参见图1)。

不论安全实践的研究对象是微观层面的“人”,还是全球宏观层面的“国家”,均离不开“主体安全责任”这一核心思路。其中的原因有两点:第一,主体具备感知能力,不安全将使主体感知到极大的生理痛苦与情感压力,因此主体通常具备较强的维护安全的能动性。第二,主体是责任的载体,只有主体存在,追责才能具备意义。鉴于追责行为将使个人或国家付出惨重代价,国家会出于对上述代价的顾虑而选择收敛行为。只有这样,国际安全互动才能实现秩序化。

(二)安全主体:感知威胁与策略反击
国际体系的无政府性质导致主权国家成为被委托的安全主体。作为主要的安全主体,国家在承担安全责任时,具体行为表现为维护本国安全与制裁外部敌人。当感知到威胁信号时,国家基于安全责任对威胁信号进行情境性的解释。但是,国家在诉诸安全流程、安全指责的情境性解释时,通常会面临不同程度的“安全化适当性困境”。这一困境包括“过度安全化”和“安全化欠缺”两种情形,前者指某一公共问题或外部信号的安全意义不足,但被安全主体升格解读为安全议题;后者则指安全主体在错误认知、偏好迷惑等影响下,未能投入足够的资源应对外部威胁。

造成上述现象的原因是,作为安全实践主体的主权国家,在制定安全回击策略时具备“类人”的主观情感。国家在判识进入决策场域的外部威胁信号时,受制于国内政治制度的权力分配格局,权力分享居优的一方的偏好将影响一国安全政策。如巴黎学派曾言,安全化问题的启动早已被多个“安全专家”所结成的安全网络联合垄断, 安全专家出于功利的利己主义考量,将自我议题安全化,并同其他领域的安全专家进行博弈,安全主体的履责行为最终成为各领域安全专家讨价还价的结果。

对于主权国家而言,内部政治立场不和、党派分立使得政治往往具备某种特殊性或少数代表性。如果威胁事态对国家性命攸关,此时无论党派背后代表何种阶层或社会群体的特殊利益,生存考量都会胁迫国家内部各方暂时搁置分歧,转而承担共同的安全责任。此时,国家决策者会通过政治修辞和话语建构,将现实威胁情景化,并描绘出一个布满威胁的“现实图景”和“证据链条”。随后,国家决策者会对其面临的安全危机进行情感化包装与社会动员。同时,其会阐述当下危机可能造成的巨大损失,加深公众对危机的直观感受,促成“全民利益共同体”的建立。决策者利用受害者话语建构,暂时弥合了内部分歧,最终形成了决策合力。而国家也凭借公民大众间引发的共鸣,获得了履行安全责任、制定回击策略的合法性授权。此刻,国家在进行一系列内部政治操作后,履行了安全主体的责任。
(三)安全对象:事后责任的承担
国家在安全实践中的二重主客体身份,注定了国家不可能仅仅只承担维护本国安全的主体责任。另外,主权国家作为企业、民间组织等非国家行为体的母国,不仅会因某一对外政策而沦为他国追责的对象,还会因诸如企业的某一商业活动、民间组织的自发行为等事件,成为他国追责时的受连累对象。此时,国家的身份转为安全对象,即国家成为安全客体。特别是当国家的某一行为危害他国安全后,国家将为这一政策承担被动安全责任。据此,国家成为被追责的对象国(安全客体)。

国家承担安全的客体责任有两个前提:第一,国家采取了挑衅性外交政策。第二,隶属国家的企业、民间组织等安全客体作出了伤害他国人民、企业的行为,导致他国产生了不安全心态。从主权国家本身来看,国家在奉行主动安全思路时,对任何安全威胁都呈现出近乎执念的“零容忍”心态。另外,他国面对诸如企业、民间组织等非国家安全客体造成的威胁时,会将责任归咎为宗主国的管辖不当或刻意授权。此时,国家的追责对象会从非国家安全客体迁移至主权国家。

察觉到威胁的对手国在诉诸报复手段时,通常将事态挑起国整体视作追责对象。其原因有二:第一,即使挑起国家内部的执政党频繁更迭,对手国依然将事态挑起国视作具备能动性的整体单元。例如,在19891999年十年间,日本内阁曾出现“十年九相”的罕事,但日本在国际上仍然被认为是同一个单元行为体。第二,尽管新自由主义把非国家行为体视作同国家一样不可忽视的行为体,但主权国家的偏好、政策立场会对非国家行为体的行动构成影响,导致非国家行为体的自主性严重受损。国际组织赤裸裸的傀儡性质,意味着国家将主体责任推卸到集体组织之上变得不具有说服力。受害国在追责时仍然选择向国家主体追责,而主权国家将在他国的追责下承担安全客体责任。
 三    弱人工智能时代:多主体并存与权责模糊化
伴随着互联网技术、超级计算机技术与智能化仿生技术等科技的革新,人工智能技术不仅向着突破技术“奇点”、实现技术指数级增长等方面大踏步迈进,而且也重新定义了人类的本质。人工智能技术革新的关键一步在于实现从感知能力向自主认知能力的跃迁。当前,各人工智能开发实体创建的人工智能通用大模型,具备低配版“超级大脑”的认知能力。在弱人工智能时代,具备有限认知能力的人工智能通用大模型是人类开发出的工具,可以被人类使用或控制,它自身不具备“主体性”,其主体性依附在开发者、推广者、使用者的本体之上,因此,人工智能通用大模型的真正主体依然是人类“本我”。在多重主体并存的弱人工智能时代,单个事件多个主体的嵌入,势必在权责划分时使各方龃龉不断,不可避免地导致权责模糊化。
(一)弱人工智能时代:多重主体的并存
即使如约翰·麦卡锡(John McCarthy)所述,智能机器一旦生成,它的感知能力将远超人类生理的理解范畴。 但依旧不可否认的是,人工智能通用大模型不具备自然进化意义上的肉体,也不具备可独立生成与非自然演化的特质。到目前为止,人工智能通用大模型仍是人类创造的一项技术产品,不具备绝对的主体性。在弱人工智能时代,人工智能通用大模型基于预置数据和算法设置,能对外部信息进行有限分析理解,并基于绝对的算法理性输出程式化结论。从整体来看,大模型自主认知的深度还很肤浅,尚不具备“智力主体性”。此时,从主体性来看,基于“身体—心智”二元模式的人工智能通用大模型完全依附于开发者、使用者或推广者。彼得·西洪(Peter Cihon)等学者认为,人工智能实质上扮演人类的代理人角色,在不同政策场域与决策环境下实现人类交付的使命。

在弱人工智能时代,人工智能通用大模型可被视作开发者技术革新后的衍生品,开发者拥有此模型的实质“产权”或“物权”。需要指出的是,从技术特征来看,人工智能通用大模型开发难度较高,应用的知识门槛较低。在问世之初,模型就具备公共产品(public good)的禀赋。但是区别于政治学视域下霸权国公共产品供给呈现的资源耗散逻辑, 人工智能通用大模型开发者在推广技术时,奉行的却是“强者愈强,弱者愈弱”的马太效应(Matthew effect)逻辑。对模型开发者而言,技术产品推广是嵌入产业布局结构和锁定利己位置的重要手段,一旦价值链顶部位置得到巩固,产业结构内“垂直”的科技威权就已构成,从而形成“赢者通吃”局面。从这个意义上说,开发者作为弥散化的源头,通常具备较高的模型推广意愿。

在人工智能通用大模型的使用过程中,较低的知识门槛决定了使用者在使用模型时无需依赖太多知识储备。相较于依靠输入指代符号、公式组合的其他信息技术,人工智能通用大模型可将需求转换为自然语言形式的结论输出,非专业化的个体在使用模型时,无需耗费学习成本即可利用模型输出结论指导现实工作。另外,无论是开源人工智能通用大模型,还是需依赖付费接口的未开源版大模型,用户在寻找上述接口时,仅需简单的互联网操作或借助移动终端设备即可完成。诚如卢恰诺·弗洛里迪(Luciano Floridi)所述,人工智能技术不再是少数精英阶层的独享产品,数以亿计的普通个体从电脑乃至移动设备之上均可调用。

在弱人工智能时代,当使用者利用模型进行决策时,模型基于算法的工具理性依然从属于使用者个体的情感价值理性。人工智能通用大模型所依附的主体开始从开发者流向传播者、使用者和二次开发者。模型主体在弥散过程中,呈现“多中心化”并存的特征。主体弥散导致开发者面临“离岸管理”(offshore management)困境,即开发者出于善意目的而开发模型,但囿于模型较低的自主智力水平,一旦被诱导或蛊惑,模型却极易作出错误乃至危害性判断。对此,马克斯韦尔·蒂莫西(Maxwell Timothy)曾言,即使OpenAI意识到ChatGPT存在道德风险,并制定一些算法规则来规避模型产生不道德的回应,但依然无法完全避免ChatGPT被负面利用。例如,以炸弹制造问题为例,OpenAI仅教会了ChatGPT如何拒绝回答,但并未剥夺ChatGPT回答这一问题的能力。使用者可以采取策略引诱的手段,诱导ChatGPT作出危险回答。

如果使用者利用模型固有缺陷从事破坏活动,开发者、传播者、使用者彼此均可相互推卸责任。由此可见,在多主体并存的情境下,权责划分开始日益模糊。例如,在典型的杭州谣言事件中,就至少出现了三类主体。第一类是大模型的开发者,即ChatGPT的开发者OpenAI;第二类是使用者,因为是在使用者诱导的前提下,ChatGPT才生成了相关内容;第三类是相关内容的传播者,因为其传播才导致这一信息变成了谣言。而在其他的相关实践中,还可能出现第四类主体。因为OpenAI现在提供了一个应用程序编程接口(Application Programming InterfaceAPI)给二次开发者,所以第二次开发者同样可能成为责任主体,也就是第四类主体。在复杂的多方互动中,可能会出现更多的主体,因此弥散化在弱人工智能时代表现为多重责任主体的并存。
(二)主体多元化与责任离散
在弱人工智能时代,由于人工智能智性化程度相对较低,传统安全主体依然在安全互动实践中发挥主导作用。但人工智能通用大模型嵌入安全场域后,将导致主体模糊化、权责划分离散化的问题。具体来看:第一,既有安全主体(如主权国家)拥有使用暴力机器的先验政治合法性。国家博弈、权力竞逐与武力投射大都以国家为名义进行。由此可见,主权国家时至今日依然是国际权力结构的中心行为体。即使非政府组织、国际组织乃至跨国公司均不同程度卷入全球安全问题,但国际体系中的安全互动依然主要是由主权国家构成的“博弈场”。第二,当人工智能通用大模型内嵌入国际安全领域后,模型算法将对其他安全主体产生赋能作用。在赋能效用下,原本边缘化的安全主体进入安全互动的核心场域,全球安全实践自此呈现多主体参与的混合模式。安全主体与安全对象(客体)的多元化意味着权责划分离散化成为定局。

1. 安全主体:解释权弱化与主体多元化

在弱人工智能时代,安全主体多元化趋势建立在两个互为因果的机制之上。一是通用大模型对边缘安全主体的赋权,二是传统主体解释权的弱化。前者直接酿成后者的悲剧。从本质上来说,既往国际安全实践是主权国家间信息交互和传导的闭门政治活动。不均衡的信息获取和资源分享模式导致现代社会的安全问题尤为突出。 决策群体与公民大众、非政府组织、社会企业在安全议题上,彼此间的信息获取呈高度不均衡状态。信息垄断使主权国家在安全实践问题上先验地获得了不容置疑的解释权。在绝大多数情况下,对信息来源渠道匮乏的公民个体、非政府组织、企业等边缘安全主体来说,选择信任信息充裕的国家决策中心是唯一可选之路。而国家通常会依赖非常规路径获取的情报资源来感知安全威胁,并遵循大门紧闭的“箱中决策”逻辑进行安全决策。据此,托马斯·谢林(Thomas Schelling)指出,话语作用的发挥必须依赖“权力的背书”, 国家可以任意解释安全问题,塑造具备威胁性的“他者”,履行所谓的安全主体的应尽责任。

主权国家在履行安全责任时,通常依赖国家叙事手段,将威胁者叙述成“罪大恶极”的挑衅者。由于自然人天生就是“会讲故事的动物”(story-telling animal),人们对于世界的理解基于主体间的感情叙事。因此,作为“类人”行为体的主权国家自然也是“叙事人”(homo narrans)。叙事手段可以使国家在制定反击策略时获得较高的民意认可度。需要注意的是,与严密的逻辑论证不同,叙事使人信服的增信基础并非来自严格的逻辑思辨,而是源自声情并茂的叙事话语。 由于边缘安全主体的信息获取存在匮乏性,主权国家政府无须忧惧边缘安全主体会识破其叙事话语中的夸张叙述,政府单纯凭借描绘情节完备、引人入胜的叙事,即可说服意见离散的公民大众、非政府组织和企业等多个社会主体,形成外部威胁的社会认知共识,并确立日后策略回击的政治基础。对此,阿利斯特·米斯基蒙(Alister Miskimmon)曾将此种叙事类比为戏剧,即为安全化问题创设剧本。

随着弱人工智能时代的到来,国家叙事剧本的合理性遭受了严重冲击。人工智能通用大模型信息数据存量大、使用便捷的特征可以帮助边缘安全主体理解各类安全问题。边缘安全主体经过人工智能通用大模型的赋权后,具备了识别剧本真伪的能力,并导致国家的解释权开始流失。例如,ChatGPT可解答的安全议题门类覆盖政治、经济和文化等多重领域。正如舒巴姆·罗伊(Shubham G. Roy )所说,ChatGPT似乎是一个速度极快、口齿伶俐的图书馆馆员兼教授学者,它比任何现有技术或人机界面都更有效地促进了对世界知识的询问和总结。可见,在弱人工智能时代,人工智能通用大模型的赋权能力表现为支持信息资源获取的能力。被赋权后的边缘安全主体成为“完全信息人”,直接导致了“越顶效应”的出现;“越顶效应”使得既有权力中心与精英阶层的信息垄断优势不复存在,边缘安全主体开始亲身参与全球安全实践,促使全球安全主体呈现多元化趋势。

传统边缘安全主体凭借人工智能通用大模型打破了信息壁垒后,开始迈入全球安全实践的中心场域。国家采用误导性叙述来夸大或隐蔽事态的行为被算法证伪,企业、个人或非政府组织等安全主体开始具备事态判识与感知能力。边缘安全主体逐步与既有安全主体即主权国家产生认知差异。此时,由于人工智能通用大模型的赋能效应,“泛在社会”的多元安全主体走向了传统安全主体决策的对立面。例如,当主权国家叙述本国面临严重的网络安全威胁“剧本”时,公民个体、非政府组织等会通过咨询模型,判定出时下网络安全威胁程度并未达到国家叙事“剧本”中所描绘的严重程度。在信息透明的前提下,主权国家基于“剧本”而采取强化网络闭锁的政策,将招致内外部的极大抵制。由此可见,在人工智能通用大模型的赋能作用下,边缘安全主体同传统安全主体不再是依附关系,而是趋向于一种博弈关系。

2. 安全客体:多主体参与和责任离散

在弱人工智能时代,全球安全实践呈现多主体参与的复合模式。这一模式可表现为单一安全事件可能牵涉多个安全主体。例如,2020年美国总统大选前夕,一段由人工智能深度造假技术篡改的美国众议长南希·佩洛西(Nancy Pelosi)演讲视频,在脸书(Facebook)和优兔(YouTube)等社交平台上广泛传播,并成为抹黑民主党的重要材料。而佩洛西本人作为受害者,在追讨责任时,面对的是造假算法研发者、算法使用者、推广平台和基层选民等多个安全客体。对于受害方即追责一方而言,多个安全客体意味着责任呈现离散化分布趋势,因而在选择追责对象进行追责时困难重重:一方面,各安全客体出于趋利避害的复合心态,彼此之间存在相互推诿的卸责行为;另一方面,如果追责范围涵盖牵涉事态的全部责任客体,单一追责者面临数个责任客体,因而极易因力不从心或坠入两线乃至多线作战而追责失败。

如果从责任推诿的视角入手,安全主体的强制追责行为可能导致“责任错赋”问题。由于威胁政策由多方制定,因此涉及国家政府、地方政府、企业甚至非政府组织等相关安全客体。从实力视角出发,各安全客体间的讨价还价与责任推诿流程是一项不均衡的博弈。 在事态发生后,由于面临追责者强大的问责压力,安全客体组合中的强势行为体极易率先退出集体行动模式。在强势行为体退出后,安全客体将转而采取双向度的“讨好—施压”模式:前者依靠利益输送、巧辞诡辩等方式主动接触追责者,营造“事不关己”的无辜者形象;后者则联合集体行动阵营中的其余强者,采取实力威慑、产品断供等多样化压制手段,向弱势群体施压,以迫使弱势群体妥协并承担全部安全责任。此时,各安全客体动态博弈的推责流程沦为“一边倒”的压榨行径。而鉴于受害方急于诉诸报复并挽回损失,其通常不会出于道德怜悯而放过弱势的安全客体。由此可见,在不均衡博弈下,弱势群体被安全主体“错赋”了安全责任。

除了各主体间推卸责任的不均衡博弈外,各安全客体彼此“一荣俱荣,一损俱损”的合作也极易导致追责者面临追责失败困境。当安全客体间彼此实力位差较低,内部既无强者联盟,又无实力超群的单一强者时,各安全客体由于实力相近,彼此间凭借均衡博弈就能形成一致对外的担责意志。此时,各安全客体通常选择“抱团取暖”,最终实现集体协作。对安全主体(追责者)而言,安全客体间的协作一致会成为追责梦魇(参见图2)。一般情况下,安全客体在制定威胁政策时,通常会预先判别目标国实力等次,如果多方合力仍无法实现对目标国的实力形成物质压制,安全客体通常会转而寻求与目标国合作或不接触。既然安全客体诉诸了安全威胁,这意味着安全客体组合已具备压倒安全主体的物质实力。对安全主体而言,在追责时“分而治之”是上善之策,否则将极易导致追责失败。

 四    强人工智能时代:“类人”主体的拟造与卸责
由于人工智能技术的不断迭代革新,在不远的将来,具备更高智力水平的通用人工智能将被广泛应用。埃班·埃斯科特(Eban Escott)认为,人类将进入一种“通用/强人工智能时代”(Artificial general intelligence)。区别于具备有限认知能力的弱人工智能,强人工智能系统不仅可以在任何复杂条件下同人类进行无差别的交流和对话,还可具备“人”的认知与理解能力。由此可见,智能体的“类人性”成为强人工智能时代的主要特征。诚然,人工智能作为一项迅猛进步的前瞻科技,其智力水平或许在将来的某一日赶超人类,成为尼克·波斯特洛姆(Nick Bostrom)所说的超级智能体。但是,由于时下人工智能的技术现状与研发进度,超级智能体依然仅存于人类的想象之中,其性质与特征较为模糊。因此,本文的研究视域聚焦于实现预期较高的“类人”智能体与“强人工智能时代”,对“超级人工智能时代”将暂不予研究。

从主体性视角出发,在强人工智能时代,具备高度“类人”认知与决策能力的人工智能体可能获得同开发者类似的“本我”身份,具备一定程度的主体性意义。当具备高度认知和感知能力的通用大模型进入全球安全实践领域后,一方面,人类安全主体出于生理惰性,可能对具备“帮助人”和“替代人”能力的通用大模型形成过度依赖;另一方面,由于“人”具有趋利避害心态,传统安全客体会将责任推卸到“类人”的大模型之上。上述卸责行为,势必会令追责方变得无所适从。
(一)强人工智能时代:“类人”主体的拟造与安全嵌入
如果说在弱人工智能时代,人工智能通用大模型主体弥散化指的是不同人类主体间的扁平化扩散过程,那么在强人工智能时代,主体弥散的范围扩大到了“类人”主体。斯图尔特·拉塞尔(Stuart Russell)等学者在论述强人工智能的内核时明言,人工智能不仅要“像人一样思考与行动”,更重要的是在思考与行动时具备“类人”理性。人工智能通用大模型的理性领悟能力并非与生俱来,而是依托算法感知的学习机制实现的。模型凭借基准算法,实现与社会环境中生命体的高频次信息交换。模型还可利用神经网络算法和深度学习工具等技术,模仿、归纳、总结人类行为模式,通过不断更新迭代的学习过程,最大限度地同人类的语境、观念同频。相较于量子通信、区块链等技术,人工智能通用大模型所独有的自主学习(autonomous learning)能力,由“试错”(trial and error)与“一般化”(generalization)两种机制构成。前者要求人工智能通用大模型对可能导致美好结果的有效路径全部都进行尝试,当日后相似性事态发生时,人工智能通用大模型可依据前期试错结果,甄别路径选择,在短时间内规划最佳方案;后者则要求模型既甄别形式相似但内核非同质的问题,又依据既往经验作出正确回应。

人工智能通用大模型一旦具备认知与决断能力,人类与算法模型的互动关系将从垂直的“主奴隶属”变质为平行的“主客共生”。某些极端的肉体虚无主义者认为,强人工智能时代存在虚拟主体与现实主体两种类型。相较于诞生即走向衰亡的肉身自然衰减规律,数字主体逃脱了物质与三维空间的束缚,从开发者手中诞生之初即实现“数字永生”。在强人工智能时代,智能体可能会获得某种“类人”主体的地位。正如布鲁诺·拉图尔(Bruno Latour)所强调的,非人类行为体可能也会成为“行动者—网络”(Actor-Network)的一部分。目前,法律方面的文献和事实也都指向未来的智能体很可能获得某种与人类地位不完全相等,但是会重新拟造的类主体地位。主体被承认的范围可能局限于某些特定行业,诸如沙特阿拉伯曾将国籍授予一个名为“索菲亚”的机器人,而美国在推动无人驾驶技术工程化应用的过程中,无人驾驶系统被赋予了司机的地位。

在强人工智能时代,原有的开发者主体或使用者主体依然存在。但是高度智能化的人工智能通用大模型在获得“类人”主体地位后,在安全场域形成了人类主体与智能体主体共存的新模式。从权责互动的角度来看,人类主体彼此间自然遵循传统意义的安全互动模式。但是, 人工智能通用大模型本身不具备物质肉体,更不理解何为责任,对于安全威胁并无实际意义的生理痛苦,其本身不具备履行积极责任的能力。另外,当人工智能通用大模型产生伤害人类安全的恶劣事件后,“身体虚无”导致其无法承载责任。由于受害者无法向模型追责,进而将产生严重的责任缺失问题。正如马尔科·萨索利(Marco Sassoil)所言,如果使用自主武器时,当发现武器攻击行为是违法的,那么究竟应该由谁来承担取消攻击的决策责任?
(二)主体依赖与责任剥离
在强人工智能时代,人工智能通用大模型被嵌入全球安全实践进程后,主体呈现出责任的让渡与推卸两种“剥离”情景。责任的让渡式剥离是指安全主体在从事安全活动时,依赖人工智能通用大模型分析安全威胁,甚至于将安全回击策略的规制权让渡于“智能体”;责任的推卸式剥离是指,当安全客体与人工智能通用大模型合谋造成安全危害后,安全客体出于趋利避害的现实主义心态,会把责任推卸到人工智能通用大模型的“算法黑箱”之上,从而将责任从自我身上剥离开来。在安全主体层面,责任剥离意味着权力让渡和主体权力侵蚀;在安全客体层面,广泛的卸责与推诿行径将成为追责者的梦魇。

1. 安全主体:算法依赖与权力侵蚀

社会治理与安全策略规制本是“人类”决策主体的“专利”。但伴随着人类进入算法政治时代,算法嵌入领域已不简单局限于个性化搜索、导航等生活项目,选举政治、安全判识乃至策略规制均出现了算法干预的影子。例如,在选举政治中,候选人可寻求特定技术团队的协助,精确定位选民运动轨迹与偏好特征。被算法赋能后的参选者可持“上帝视角”,针对性地同选民个体建立密切联系并鼓励其动员其他选民。在强人工智能时代,聪明且具备独立意识的人工智能通用大模型嵌入政治活动后,成为政治家决策者意图的数字延伸。区别于单向辐射的算法操控选民问题,当人工智能通用大模型进入安全政策场域后,决策者会依赖模型判识威胁信号来源,并在模型指导下作出策略回应。据此,算法辐射存在“解释—决断”双向干预作用。

通常情况下,人工智能通用大模型在决策者授意下,能凭借发达的认知能力和最佳决策路径选择能力,成为决策者的“左膀右臂”。但问题在于,前端聚合数据、训练模型的超级网络平台会受其所在国家文化意识形态、开发者偏见等主观要素的影响。例如,美国约翰斯·霍普金斯大学在用一种名为CLIP的神经网络训练机器人进行易犯罪人群分类时,机器人将黑人男性归类为罪犯的比例比对白人男性的归类高10%,将拉丁裔男性归类为看门人的比例比对白人男性的归类高10%。平台会有意或无意地给人工智能通用大模型预设“算法过滤器”,将依赖算法的安全主体捆缚于“信息茧房”与“回音室”中。决策者在认知外部威胁事态时,个体理性被人工智能通用大模型的预设偏见与纯理性的“算法固执”所湮没。一定意义上,人工智能通用大模型的算法智力成为安全主体的替代智力,即使决策者主观认知与人工智能通用大模型的识别结论不一致,但决策者会出于本能惰性,重复依赖算法进行验证,多次得到具备极大“说服力”的相似结论;在模型说服下,决策者最终潜移默化地接纳模型结论,放弃初始的自我认知。据此,美国弗吉尼亚大学教授安东·科里内克(Anton Korinek)指出,伴随着ChatGPT和其他大型语言模型的出现,在未来10年内,人类在许多认知任务中的作用将会被减弱,人类将仅仅承担批准机器工作的使命,而不再对完成任务作出贡献。

在强人工智能时代,人工智能通用大模型不再是纯粹的工具性客体身份,而是承担着辅助决策者判识外部安全威胁信号的责任。模型直接内嵌入国家科层设置与决策机构之中,成为执行决策的新安全主体。当人类主体开始高度依赖人工智能处理安全化问题之时,安全问题的处理流程将被视作“架构模型机制—外购模型接入权限—规培职能化人员—执行模型输出决策”的商品化流程。在强人工智能时代,安全主体(非政府组织、企业、领导人和决策小群体)在算法依赖机制下,可能将安全决策权责实质上让位于“虚无”的智能体。安全主体权力流散与侵蚀,在一定程度上会颠覆人类主体与智能体之间的“主奴”工具互动关系,致使人类主体在安全议题上的权力被人工智能通用大模型分享乃至剥夺。约翰·奈斯比特(John Naisbitt)曾提到,只有切身参与到同自己生活相关的各项决策之中,人类才能真正意义地掌握自己的生活。即便国家为遏制权力流散制定一揽子政策,限制人工智能通用大模型进入安全决策场域,但从模型性质来看,主体“虚化”的人工智能通用大模型具备如空气一般的散布性与渗透力,这一特性使模型极易穿透政策遏制缝隙,迫使人类主体不可避免地让渡部分安全决策权力给人工智能通用大模型。

当人类安全主体授权人工智能通用大模型参与威胁判识、民意参考与政策反击等全流程环节后,人类安全主体从智性决策者身份向政策执行者身份转型。在安全决策时,模型基于绝对算法理性作出最优判断,形成政策执行路径的文本化形式。政策执行过程简约化为安全主体依据文本输出信息,复刻模型意愿的政治行为。此刻,人类安全主体的生理智力与人工智能通用大模型的算法智力共享同一“物质身体”,出现双重智力与单一身体的并存现象。一旦算法智力在安全场域决策中形成对人类智力的“绝对胜利”,意味着拟造安全主体出现替代传统类人安全主体的预兆,人类安全主体的自主权力被极大侵蚀。有学者指出,ChatGPT不应该被用作人类决策的替代品,而应该被用作支持人类决策的工具。

2. 安全对象:算法合谋与客体卸责

当进入强人工智能时代后,安全客体在涉及敏感安全议题的法理和管辖权上,更容易将责任推卸给人工智能通用大模型。从法理层面来看,安全客体在安全问题上会作出让渡权力这样违背常规的行为,其背后必然有深刻的利益考量。模型的高度智性化可以实现决策的最优化。具备拟造主体的人工智能通用大模型在技术和法律法规两个层面,都是客体合理化的卸责对象。其一,从技术维度来看,人工智能依赖精密算法与机器学习两种机制。由纯粹算法理性得出的“最优项”可能同经验事实、伦理考量出现偏离,进而威胁人类尊严或他国安全。而算法本身具备游离于可控机制外的“算法黑箱”,安全客体可以此为借口,获得将危害责任转嫁于自主机制之上的机会。 其二,从法律法规层面来看,无论是国内行业监管法规还是国际通行法律准则,对于人工智能通用大模型引发的偏预期事件,在责任主体划归时都含糊不清。 基思·罗杰斯(Keith Rodgers)和布兰特·霍里奥(Brant Horio)认为,由于目前缺乏监管ChatGPT的相应法规,这最终导致对如何规范使用和由谁使用等问题含糊不清。 上述法律责任设置的模糊性为安全客体在卸责时钻取政策漏洞留下了法理借口。

从管辖权层面来看,主体“虚化”的通用大模型技术开发难度较高,拥有无法规避的“算法黑箱”和独立的智性能力。大模型相较于军事设备、能源工业等国家控制、授权的实体产业,较难被单个国家、个人和非政府组织独立掌控。这将导致两种现象的出现:第一,国家、非政府组织乃至企业可能会失去对模型的绝对控制权。第二,上述行为体可以凭借模型开发者的国籍归属、对开发企业的所在地管辖、资本控股等契约或资本手段,获得名义上的人工智能通用大模型的管辖权。各主体参与全球安全实践时,倾向于利用名义管辖权完成与模型的“合谋”(collusion),从而实现自我安全预期。具备名义管辖权的行为体,在实质上成为具备些许特权的“高阶使用者”。与此同时,“合谋行径”未曾触及模型“主权”“掌控权”等“红线”问题。一旦政策触及安全底线导致他者利益受损,各安全客体可能第一时间将责任推卸到智能体之上。

人类主体与人工智能通用大模型在安全领域的合谋行径的来源,可追溯至商业竞逐领域。阿里尔·扎拉奇(Ariel Ezrachi)和莫里斯·斯图克(Maurice E. Stuckle)在其著作《算法的陷阱:超级平台、算法垄断与场景欺骗》中开创性地提出算法合谋(algorithmic collusion)概念,意指两个或多个行为主体利用算法为工具实现自动合谋的商业过程。他们在书中依据算法独立性程度将“算法合谋”划分为四类场景,分别是信使者(Messenger)、轴辐(Hub-and-Spoke)、预测者(Predictable Agent)和自主机器(Autonomous Machine)类合谋。前两者人工智能居于工具性的“服务生”身份,后两者则是具备决策统管能力的“协调人”。可见,人工智能在商业和安全领域中的合谋参与形式存在较大差别,在商业领域中,算法仅为沟通平行商业主体间的“中介人”或“自主桥梁”,参与合谋的双方依然是“人”;而在安全领域中,人工智能通用大模型成为合谋的参与者,并在人类安全客体授意下扮演责任载体或“背锅者”角色。

当安全客体进行卸责时,法理责任模糊与名义管辖权两种机制为安全客体的卸责行为提供了现实保障,而安全客体是否能有效卸责,甩掉祸事的“责任尾巴”,取决于安全客体的物质实力与人工智能通用大模型参与度的双向互动。在人工智能通用大模型参与度较低的安全事件中,卸责行径是拥有强物质实力的安全客体的专有福利。原因有两点:第一,如果在某一安全事件中,模型参与度较低且仅扮演辅助性角色,那么导致安全事件发生的主要原因依然是安全客体的个人行为。安全客体与人工智能通用大模型对事件的贡献度划分较为明晰。依据简单多数的追责比例原则,安全客体将承担大部分乃至全部安全责任。如果此时实力弱势的安全客体诉诸卸责行为,通常会招致信誉流散与外源抵制,导致得不偿失的窘境。第二,对于物质实力强劲的安全客体而言,诸如霸权国、商业巨擘等,合理化借口比“完美无瑕”的预设条件更具意义。只要人工智能通用大模型参与决策,“算法黑箱”与名义上的“非本我决策”就成为客体卸责的合理化借口。从国际关系视角来看,依据制衡门槛理论, 物质实力强劲的大国出现卸责行为时,制裁者因实力趋弱,担忧制裁行径会招致大国报复而反噬自我,通常选择放弃制裁。据此,安全客体依托精致外交卸责说辞、实力威慑等手段,向外界塑造了受累的“无辜者”形象。安全客体在无辜者形象的掩饰下,强迫追责者将责任矛头指向“类人”主体的人工智能通用大模型之上。

如果人工智能通用大模型全面卷入安全事件之中,并与安全客体一道进行决策,大模型将成为实质意义的安全客体。通常在各安全客体之间,不论物质实力或强或弱,均可能选择趋利避害的卸责行为(参见图3)。其中的原因是:第一,人类智力与模型智力共同作用于某一安全事件时,安全责任划分变得异常艰难。受害方(安全主体)在追责时无法判断究竟哪一客体应该承担代表性责任,而安全客体则可以利用责任模糊性而广泛卸责。第二,从事安全的行为体在面对人工智能通用大模型时,均具备“信又不信”的双向主体认知悖论,即安全客体在制造威胁时,无论是自我决策还是由人工智能通用大模型替代决策,各安全客体在被追责风险的压迫下,均乐于承认智能体的责任主体地位;但如果角色互换后,安全客体沦为被威胁方(安全主体),安全主体出于复仇心态,通常不会承认智能体具备责任主体地位,广泛的卸责行为使原本清晰的全球安全责任结构混乱无序。此种意义之上,人工智能通用大模型无疑可被视作“破坏性技术”存在。

 五    重回秩序化:基于“安全主体间性”的路径建议
尽管人工智能通用大模型落地时间较短,但是大模型被认为是一种通用性技术,将广泛运用于国家、公民社会和个体交往等方方面面。但是模型自身的技术复杂性和自主算法不可控性等先天缺陷,会在通用性的叠加作用下带来诸多安全风险。与此同时,区别于区块链、量子通信等前沿新兴技术,与人工智能通用大模型伴生的安全风险常因责任模糊或缺失而得不到解决。其中的主要原因莫过于原本由各安全主体互动形成的“主体间性世界”,因为人工智能通用大模型的嵌入而走向失序。在不同的人工智能技术强弱时段,人工智能通用大模型对主体间性的冲击作用不同,也导致了不同样态的责任模糊和缺失。因此,在规制应对策略时,要从稳定主体间互动的层面进行考量,才能使人工智能时代的全球安全实践重回秩序化。
(一)弱人工智能时代:区块链与人工智能合力下的细化权责思路
在弱人工智能时代,全球安全互动场域中的稳定秩序在边缘主体嵌入效应的冲击下,呈现出离散化特征并走向失序。如果各参与主体之间依靠自助原则划分权力和责任,那么在通常情况下,将出现主体间既争权又推责的自私主义行为。可见,这种细化责任路径是消除弱人工智能时代的单一主体追责和自助原则的新思路。细化责任思路要求针对不同主体的功能,进行更为细致的定义。为此,国际社会可以尝试建立一种“事前分责”的细化制度,即人工智能通用大模型的开发者、传播者、使用者乃至二次开发者彼此之间应确立明确的权责划分。

想要建立这种细化的权责机制,我们可以尝试利用区块链技术与人工智能技术融合发展的思路。从人工智能视角来看,人工智能通用大模型对边缘安全主体的赋权具备普遍性:一方面,得到赋权的多个安全主体可能同时卷入单一安全纷争之中,最终导致安全主体多样化;另一方面,人工智能通用大模型不仅单纯在信息获取渠道上发挥“赋能器”的作用,还在弱化语言隔阂、促进相互理解层面发挥作用。如果利用得当,智能技术与人工智能通用大模型的普及可以使各行为主体间更加便捷地进行交流沟通。而从区块链技术的视角来看,区块链技术可以建立一种新的价值互联网。在这一互联网之中,人类社会中各种不同类型的产品和需求可以直接对接。此时区块链“点对点传输”技术对于形成新的、公平的分配机制至关重要。

当人工智能与区块链技术形成合力,应用到安全主体的权责划分问题上时,可以发挥“一加一大于二”的成效。人工智能技术生成的可视化语言,可以使各安全主体进行深入交流,消弭各主体间存在的语言隔阂、信息壁垒等障碍,促成在事前权责划分问题上的一致共识。而区块链从技术层面上是一部“不可篡改的分布式账本”。利用区块链技术的不可篡改性质,可以将事先达成的权责划分细则“上链”,形成具备刚性的、不可违背的“绝对法律”。一旦多主体参与的事态造成安全危害后,安全主体可以凭借事先权责划分比例来追讨责任。主体间权责互动就可一改相互推诿的无序状态,重回秩序化。
(二)强人工智能时代:国际共识的建构与找寻“监护人”思路
在强人工智能时代,具备认知能力的人工智能通用大模型被拟造为“类人”主体。但由于其身体虚无的特性,大模型无法作为完全的责任载体。在全球安全互动中,由生命体参与形成的“主体间性世界”因“类人”主体的掺入而陷入混乱。回归秩序化的首要问题是,要解决智能体在参与安全互动后,其究竟是否能作为“人”等一系列根源问题。国际共识性规范的建构,离不开大国协调机制。体系内主导大国应利用联合国等多边国际组织平台,发挥协调统合作用。各方应在协调时将智能体视作“半主权的人”,不可将其视作完全承载责任的“全主权个体”,在具体运作时,可以参考公司法中对公司主体的定义。由于公司是后天拟造的,因此公司被公司法赋予了法人身份, 但同真正意义的主权“人”尚存在差别。

当全球共识性规范确立后,针对“半主权”的智能体,可以建立一种“监护人”制度。在此制度下,监护人承担“保证人”的职责。保证人理论最初由德国学者约尔格·纳格勒(Jörg Nagler)于20世纪30年代末提出,原意为刑法学视域下阐释“不作为犯”义务的理论。该理论认为,只有法律上担负有防止结果发生的作为义务的人,即居于“保证人”地位的个体之不作为,方可被视作符合犯罪的构成要件。开发者“明知而不为”的行径,依据“保证人”学说即可被判定有罪。需要指出的是,在安全场域中,人工智能犯罪主体不局限于“不作为犯”的开发者,使用者等也可作为安全犯罪的“作为犯”存在。

“保证人”理论在赋予人工智能通用大模型开发者安全保证人地位的同时,亦可赋予模型推广者、使用者安全保证人身份。尽管在强人工智能时代,智能体可以获得某种类主体地位,但是与安全实践相关的内容,则需要智能体在监护人的监护下从事。这意味着监护人必须由自然人组成。而自然人作为主权人,具备承载责任的基本前提。在监护人制度下行事的人工智能通用大模型,同未成年人在监护下进行活动的思路一致。一个可供类比的例子是,中国为了管理数量繁多、性质复杂的社团,采取了挂靠的管理规则,挂靠单位在社团管理中充当了类似“监护人”的职责,对挂靠社团的管理负有一定的监护责任。

在监护人制度被引入人工智能通用大模型后,当人工智能通用大模型产生了某种安全问题时,我们便可以采取关闭系统、追究算法主体及其监护人责任等手段。从算法开发的全流程来看,开发者在开发阶段自动成为“监护人”。在使用阶段,人工智能通用大模型尽管可以获得某种类主体地位,但在从事安全实践相关的活动时,仍然要依靠一定程度的监护。此时,监护人将发挥公共信用担保的功能,一旦模型在使用过程中导致危害事件的发生,监护人将承担担保责任。总的来看,只有当责任重新挂靠到人类主体之上,人类主体由于担心被追责而招致严重政治、经济乃至信誉损失,才会对“类人”智能体施加控制。如此,全球安全互动实践的“主体间性世界”才能重回秩序。
 结 语 
ChatGPT为代表的人工智能通用大模型对传统安全责任制形成破坏。以此为出发点,本文基于主体和责任耦合的思路,提出了一个人工智能时代全球安全实践的研究框架。这一框架包括从“主体责任制”的失效,到再次找回主体责任的全过程。提出这一框架,意在更好地研究在人工智能时代当主体和责任出现二元模糊与缺失时,全球安全互动如何找回责任,实现再秩序化。本文通过考察发现,在人工智能时代的全球安全互动中,责任模糊与缺失的根本原因在于人工智能通用大模型进入安全场域后衍生的“主体性难题”,因为主体承担了一切安全要素的载体身份,有了主体才能有责任。但是要想让责任真正发挥意义,主体在担责和追责时,必须要有情感波折和物理感受,否则即使行为体具备所谓的“主体”地位,责任也是虚化的和无意义的。

综上而论,在人工智能时代的安全问题中,在本体论上坚持某种意义的人类中心主义(Anthropocentrism)是有必要的。对于目前的知识经验而言,只有人类生命体才具备感知痛苦的能力。正是这种内生痛苦才令参与全球安全实践的施动者心存敬畏。各行为主体因为惧怕痛苦,均有意愿在完善算法、传播监督和规范训练等环节投入更高成本。因而,不论是弱人工智能时代还是强人工智能时代,都需要安全参与者或“保证人”对算法进行监护。当前,ChatGPT作为弱人工智能时代一个初始版本的通用大模型,其工具性意味远超过“人”的意味。此时,ChatGPT在安全场域引发的主体性危机尚不严重。但是从长远来看,作为人类前瞻科技发展的未来方向,人工智能通用大模型导致全球安全实践陷入“主体性危机”的可能性愈发增强。据此,如何在强人工智能时代坚持主体问责导向思路,如何使问责成为强人工智能时代依然行之有效的威慑手段等问题,将愈发值得深入探讨。

【收稿日期:2023-03-22】

【修回日期:2023-04-01】

【责任编辑:齐琳】

编辑 | 蒋雨灿


*声明:本文仅代表作者个人观点,不代表本公众号立场

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/154951
 
120 次点击