在AIGC赋能数字政府法治建设过程中,可以通过事前建立AIGC治理架构与制度、事中强化数据全生命周期管理、事后实现算法透明度与可问责这三个方面,构建全链条规范治理体系。
(一) 事前构建:建立AIGC治理架构与制度
事前构建AIGC治理架构与制度,是防范技术风险、保障其合法嵌入数字政府法治建设的基础性工程,既为技术创新预留合理空间,又通过制度预设筑牢法治防线[注7],契合《生成式人工智能服务管理暂行办法》[注8]“发展和安全并重、创新和依法治理相结合”的监管原则。
从顶层立法架构看,需在专项立法中明确公共部门AIGC应用的特殊规则。一方面,应在立法中明确AIGC的法律地位,基于行政助手理论界定其功能边界,明确AIGC仅可辅助行政决策、提供政务服务,不得独立作出限制公民人身权、财产权的行政决定,且最终行政责任仍由行政机关承担,避免因技术主体化导致责任虚置。另一方面,需设立公共部门AIGC应用专章,规定应用前的合法性审查、风险评估、公众参与等强制性程序,例如对涉及公共资源分配、重大公共利益的AIGC应用,要求行政机关事前提交包括技术方案、风险防控措施、公法价值校验结果在内的评估报告,经上级主管部门或第三方专业机构审核通过后方可部署,确保技术应用从源头符合合法、正当、比例原则。
从具体机制设计看,需建立分级分类的事前规制工具[注9]
。一方面,完善合法性与风险评估机制,评估内容应涵盖三方面,一是权限合法性,审查AIGC应用是否符合职权法定要求,是否存在超越行政机关法定职责范围的情形;二是公法价值兼容性,校验技术应用是否符合民主原则、法治原则、基本权利保护原则;三是风险等级判定,根据AIGC应用场景、影响范围、权利关联度,划分低、中、高三个风险等级,对高风险应用强制要求召开听证会,征求公众、专家、行业协会等多方意见,确保评估的全面性与客观性。另一方面,引入监管沙箱机制,针对AIGC在数字政府中的创新应用,选择特定区域或特定领域设立试验场,在可控范围内测试技术效能与风险,通过小样本数据训练与局部场景应用,积累技术适配经验与风险防控方案,待沙箱测试通过、风险可控后再逐步推广,避免一刀切式规制抑制技术创新,或无规制推广引发系统性风险。
从责任体系构建看,需明确事前阶段各主体的义务与责任[注10]。行政机关作为AIGC应用的主导者,负有应用规划义务与审核义务,需制定本部门AIGC应用清单,对技术选型、数据来源、风险防控措施进行严格审核;技术提供方作为算法开发主体,负有合规开发义务,需向行政机关提交算法原理、训练数据来源、风险提示等说明材料,不得隐瞒技术缺陷或潜在风险;第三方评估机构作为独立监督主体,负有客观评估义务,需基于专业技术与法律知识出具评估意见,对评估结果的真实性、公正性负责。同时,立法需明确责任追究规则,若行政机关未履行事前审核义务导致AIGC违法应用,需追究相关负责人的行政责任;若技术提供方提供虚假材料或隐瞒风险,需承担赔偿责任,情节严重的禁止参与政府采购;若第三方评估机构出具虚假评估报告,需取消其评估资质并承担连带赔偿责任,通过义务与责任对应,确保事前治理架构落地见效。
(二) 事中管控:强化数据全生命周期管理
AIGC在数字政府中的应用以数据为核心生产要素,其数据处理的合规性、安全性直接决定技术赋能的正当性[注11],因此事中阶段强化数据全生命周期管理,既是防范数据泄露、滥用等风险的关键举措,也是落实《数据安全法》《个人信息保护法》全流程安全要求的核心路径。
一是在数据采集与清洗环节,管控重点在于坚守合法、必要、准确原则,从源头阻断风险传导。一方面,数据采集需严格遵循职权法定与最小必要双重限制,行政机关委托AIGC采集政务数据时,需明确采集范围与目的,严禁通过一揽子授权、默认同意等方式规避告知义务。另一方面,数据清洗需建立去偏差、去敏感双重机制,针对采集的政务数据,AIGC需通过算法过滤历史偏见数据,避免数据偏差传导至后续环节[注12],同时对敏感数据实施脱敏处理,对国家秘密、核心政务数据直接排除在AIGC处理范围之外,通过物理隔离确保数据安全,防止因数据源头不洁而引发后续风险。
二是在数据训练与存储环节,管控核心在于构建技术防护、权限管控的双重屏障,防范数据泄露与滥用。一方面,在训练阶段需引入数据可用不可见技术框架,行政机关可通过联邦学习、差分隐私等技术,让AIGC在不接触原始政务数据的前提下完成模型训练;同时需建立训练过程动态监控机制,实时监测AIGC对数据的调用记录,对异常访问即时预警、阻断,确保训练过程全程可控。另一方面,在存储阶段需落实分类分级存储要求,依据《数据安全法》对数据的分级标准[注13],将政务数据划分为核心数据、重要数据、一般数据,核心数据需存储于政府自建的安全服务器,重要数据可存储于通过安全认证的第三方云平台,一般数据可采用常规存储方式,但需设定固定存储期限,到期后自动销毁,避免无限期存储。
三是在数据流转与销毁环节,管控重点在于明确流转边界、终结责任,实现数据全周期闭环管理。一方面,数据流转需建立负面清单、安全评估制度,行政机关需制定AIGC数据流转负面清单,明确禁止流转的敏感数据类型;对允许流转的数据,跨部门流转前需完成安全评估,跨区域流转需符合地方数据管理规定,跨境流转需通过《数据出境安全评估办法》规定的评估程序,严禁未经评估擅自流转。另一方面,在数据销毁环节需落实彻底性、可追溯要求,当AIGC停止应用或数据达到存储期限时,需采用技术手段彻底销毁数据,同时需留存销毁记录,形成销毁可追溯、责任可追究的机制,确保数据生命周期的终结环节同样合规。
(三) 事后保障:实现算法透明度与可问责
AIGC在数字政府中的应用,其算法黑箱特性与行政权运行的可追溯、可问责要求存在天然张力,事后保障环节聚焦算法透明度与可问责性的双重实现,该环节需通过透明机制破除黑箱、问责机制压实责任、救济机制保障权利的三维架构,将AIGC算法运行的事后规制纳入法治轨道,确保技术赋能不偏离行政法治的核心目标。
一是通过透明机制破除黑箱。算法透明度的实现需避免一刀切式要求,应基于AIGC应用场景的风险等级与影响范围,构建差异化、可操作的分层透明体系[注14]。对低风险场景,可采用结果透明、简单说明模式,向用户公开决策结果,并简要说明数据来源与核心依据;对中风险场景,需升级为过程透明、技术说明模式,行政机关需公开AIGC的算法逻辑框架、训练数据的类别与范围,同时通过可视化技术呈现算法推导过程,让相对人可清晰追溯结果生成路径;对高风险场景,需落实深度透明、第三方审计模式,除公开算法原理、数据来源、决策过程外,还需委托独立第三方机构出具算法合规审计报告,重点核查算法是否存在歧视性参数、是否符合公法原则,审计报告需向社会公开,接受公众监督。
二是通过问责机制压实责任。AIGC算法应用的可问责性,需明确行政机关、技术提供方以及审核主体的多元责任链条,避免互相推诿责任[注15]。一是行政机关承担最终责任。根据行政主体责任原则,即便AIGC由第三方开发,行政机关作为应用主导者,对算法生成的行政决定负最终责任,若因算法缺陷导致行政行为违法,行政机关需首先承担撤销决定、赔偿损失等责任,再依据合同约定或法律规定向技术提供方追偿。二是技术提供方承担过错责任。技术提供方需对算法的安全性、合规性负责,若因算法设计缺陷、隐瞒技术风险导致损害,需承担赔偿责任,情节严重的,应禁止其参与政府采购活动,甚至追究刑事责任,这一责任设定可倒逼技术提供方强化算法合规开发[注16]。三是审核主体承担监督责任。对高风险AIGC应用的第三方审计机构、事前评估机构,若未履行审核义务出具虚假报告,需承担连带赔偿责任,并取消其审核资质,通过责任绑定确保审核环节的客观性与公正性。
三是通过救济机制保障权利。算法透明度与可问责性的最终目标,是为相对人提供有效的权利救济途径。一是赋予算法异议权。相对人对AIGC生成的不利行政决定,可在法定期限内向行政机关提出算法异议,主张算法存在逻辑错误、歧视性参数或数据偏差,行政机关需在法定期限内进行审查,必要时委托第三方机构复核,复核结果需书面告知相对人。二是完善行政复议与行政诉讼衔接。在行政复议中,复议机关需将算法合规性纳入审查范围,重点核查算法是否符合法律规定、是否存在程序瑕疵;在行政诉讼中,若相对人主张算法违法,可适用举证责任倒置,由行政机关举证证明算法的合法性与合理性,若行政机关无法提供算法逻辑、审计报告等证据,需承担败诉责任,这一规则可破解相对人举证难的困境。三是建立算法纠纷专门救济渠道。可在各级政府法制机构设立算法纠纷调解委员会,吸纳法学专家、技术专家、社会代表组成调解团队,对算法争议进行居中调解,为相对人提供便捷、高效的非诉讼救济途径,弥补诉讼程序周期长、成本高的不足。