拜登政府通过推出系列文件完成了对人工智能治理政策的全面框架搭建。几份文件在政策思路和方法上体现出一定的内在联系:《最终报告》重在提出涉人工智能主要风险和挑战;《蓝图》将风险问题聚焦到人工智能系统管控,初步划定监管阶段、明确监管原则;《框架》进一步提出“可信人工智能”结构化监管流程与监管体系建设思路;最终的《行政令》作为初步收官文件,将前述文件提及的“安全、可靠、可信”作为叙事重点,保留全流程监管思路,并对前述文件提及的关键基础设施、模型评估标准等问题给出具体措施。这体现出系列文件的渐近性与连续性。
几份文件在治理具体措施上存在“执法模糊”共性。从《蓝图》到《行政令》,拜登政府关注人工智能系统风险,但未给出详细的监管约束。《行政令》要求开发方需向美国政府通报其人工智能开发计划、为保护人工智能模型而采取的物理和网络安全措施,以及上报相关“红队”安全测试结果。但上述要求基于“自愿承诺”,未给出不遵守的后果或处置措施,有引导国防订单相关企业遵守承诺形成行业规范的意味。但“模糊性”也为拜登政府后续措施提供了更大空间。
从措施最终指向性来看,《行政令》不同于前三份文件,提出了直接服务国际竞争的更具体政策。如相比《最终报告》中关于建立良好国际秩序的设想,《行政令》在人工智能治理方面已提出明确的引领性措施,在“提升美国在海外的领导力”主要原则中提出国务院与商务部牵头建立强有力国际框架,管理风险确保安全,就标准制定、国际伙伴间互操作性等方面进行部署,具备实际的治理引领目标与行动。
未来,美国人工智能治理政策实效性仍待进一步验证。从政策内容与美国国内反应来看,《行政令》未来执行、相关法案跟进以及美式治理政策的推广已显示出一定趋势:
美国的人工治理政策因不具有强约束力,或致其后续执行遇到阻碍。美国《时代》杂志网站称,美专家认为《行政令》核心监管政策执行存在多种阻力。一方面,《行政令》部分政策本身或需进一步完善。《行政令》规定了企业向政府进行报告的初级“红线”,即关于模型计算能力的阈值,但其不能覆盖大部分现有模型。未来,开发方可能会专门开发阈值以下模型来逃避报告。此外,商务部需对足够危险的人工智能模型给出技术定义,但专家认为该任务实现难度较大。另一方面,《行政令》部分措施仍需立法保障执行效果。由于《行政令》未提及针对“危险模型”的具体处置措施,部分美专家认为拜登政府行政权力可能受到了限制,或与缺乏执法授权、部门拨款有限等因素相关。相比之下,《行政令》中的人工智能高技能移民政策可能会有立竿见影的效果。
未来国会在立法跟进方面或存在两难。国会立法压力在于其仍处于全面加深对人工智能认识的阶段。两党关于人工智能的共识主要在伦理层面,需就更广泛的治理政策达成一致。目前参院多数党领袖舒默已主持召开两次“人工智能洞察论坛”,听取业界精英关于人工智能的监管建议,并希望在数月内推出相关立法。但2024年总统大选在即,两党立法合作或受到干扰。
治理政策的全球推广进程加快。此前,ChatGPT的火爆、以及拜登政府推动亚马逊、谷歌、微软和OpenAI等一众人工智能顶级企业在监管方面达成“自愿承诺”,均为拜登政府治理宣传增色。在拜登政府推出《行政令》的前后3天,G7峰会和在英国举办的首届全球人工智能安全峰会均提出联合治理意见,与美《行政令》理念相似,联动推广意味明显。本土优势企业以及盟友伙伴纷纷行动,反映拜登政府在人工智能治理政策成型后同步加快治理政策推广,未来或借助美国与盟友主场平台继续加深合作。