2025年3月14日,国家网信办等部委联合发布《人工智能生成合成内容标识办法》(“《标识办法》”),以下是我们对办法理解与适用问题的解答,供参考。
答:中国对于生成式AI的监管,当前以部门规章、规范性文件和国家标准为主,尚未制定专门的法律和行政法规。生成式AI安全可以视为网络空间安全的一个新子域,因此以《网络安全法》为上位法,《网络安全法》中关于系统安全、数据安全、个人信息保护、内容安全、网络产品和服务安全、执法及法律责任的一般性条款可以适用于生成式AI,但由于制定时间较早,《网络安全法》中并没有专门针对生成式AI的条款。数据安全与个人信息保护是生成式AI诸多安全治理维度中的两项,不是生成式AI安全治理的全部,也不是最重要的维度(目前看来最重要的还是算法安全问题)。与这两个维度有关的问题,《数据安全法》和《个人信息保护法》构成上位法。在三部法律之下,是国家网信办联合有关部门发布的三部规章:《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》。三部规章出台的节奏与生成式AI应用不断突破的进展大体吻合,监管对象从高风险算法、深度伪造技术,逐步聚焦到生成式AI。其中的《生成式人工智能服务管理暂行办法》全面规定了对生成式AI的各项监管要求,生成内容标识是要求之一,此次出台的《标识办法》正是为落实内容标识要求的细化规定。为配合落实《标识办法》,网安标委同步制定了国家标准《网络安全技术 人工智能生成合成内容标识方法》(GB45438—2025),明确了AI内容标识的具体方法和要求。这是一项强制性国标,在近年网安标委发布的众多国标中比较罕见,足见其重要性。为了配合《生成式人工智能服务管理暂行办法》的实施,网安标委正在制定另外三项国标:《生成式人工智能服务安全基本要求》《生成式人工智能数据标注安全规范》《生成式人工智能预训练和优化训练数据安全规范》。作为国标制定过程中的阶段性成果,网安标委秘书处已发布实践指南文件《生成式人工智能服务安全基本要求》。以上就是当前中国生成式AI监管体系的概况,全景图如下:二、为什么要标识AI生成内容?答:一般认为,标识AI生成内容主要有三个理由:透明度、遏制虚假信息、责任追溯。AI生成内容可能被用于操纵舆论、干扰选举或实施诈骗等,AI标识有助于提高公众警惕性。AI标识还可以追溯内容来源,进而问责。从用户权利的角度来说,用户也有权知晓所消费内容的来源究竟是人类创作还是AI生成,避免信息混淆。在国际上,欧盟《人工智能法》、美国加州的《人工智能透明度法案》都有内容标识要求,AI内容标识的必要性似乎是显而易见不容置疑的,但仍然有一些问题值得思考和探讨:(1)人工生成的内容也会产生虚假信息,为什么不需要标识?(2)人机合作将是内容生成的主流模式,人工与AI的界限很模糊,越过哪个临界点以后属于AI生成内容?利用AI生成内容进行二次创作是否需要标识?(3)未来AI生成内容的数量会急速膨胀充斥网络空间,以至于人工生成的内容反而只占非常小的比例,从效率的角度来说是不是反而应该标识人工生成内容?(4)虚假信息的治理核心在传播而不在生成,管好传播平台和用户的传播行为即可,AI标识是否必需?能否达到遏制虚假信息的效果?
(5)无意制造或传播虚假信息的服务商会严格遵守AI标识要求,有意制造虚假信息信息者反而不会标识,故是否会出现“只防君子不防小人”的局面?
@ 三、内容生成服务商承担哪些义务?
内容生成服务商是指利用AI技术(包括通过提供可编程接口等方式)向公众提供生成合成文本、图片、音频、视频、虚拟场景等服务的服务商,DeepSeek、豆包、Kimi、元宝、通义千问等即属此类。内容生成是AI技术突破后出现的一种新业态,与此前的业态,如门户网站(信息展示)、电子邮件(信息传送)、搜索引擎(信息检索)、社交媒体(信息交流)、内容分发(信息分享)等,有本质区别。内容生成服务商是这种新业态下的新型服务商,要遵守一些新型监管要求,内容标识就其中之一。根据《标识办法》第4、5、8条,内容生成服务商承担如下义务:
(1)对生成内容添加显式标识,在提供生成合成内容下载、复制、导出等功能时,确保文件中含有满足要求的显式标识;
(2)在生成内容的文件元数据中添加隐式标识,隐式标识包含生成内容属性信息、服务商名称或者编码、内容编号等制作要素信息;
(3)在用户服务协议中明确说明生成内容标识的方法、样式等规范内容,并提示用户仔细阅读并理解相关的标识管理要求;
(4)在履行算法备案、安全评估等手续时,应当提供内容标识相关材料;
(5)加强标识信息共享,为防范打击相关违法犯罪活动提供支持和帮助。
@ 四、传播服务商承担哪些义务?
网络信息传播服务是早已存在的业态,门户网站、电子邮件、社交媒体、内容分发平台等都具有信息传播的功能。利用AI生成的内容,除内部使用、个人学习研究之外,会通过传播服务商在网络空间传播,故传播服务商也要承担相应的义务。
目前主流的内容生成平台一般只有生成功能,没有集成传播功能,生成的内容只能浏览和复制,但没有直接转发或分享功能。例如,在腾讯元宝对话界面,点击右上角转发按钮,页面底端出现“复制链接”和“生成图片”两个选项:
点击这两个选项,分别是复制生成内容和将生成的文字内容转化为长图片,如果要通过微信转发,需要粘贴到微信,或者存储在本地后再调用微信转发。
但在内容生成服务平台集成传播功能并没有技术障碍,未来内容生成服务商与传播服务商可能合二为一,融合迭代出新业态也未可知。
根据《标识办法》第6条,传播服务商承担如下义务:
(1)先核验是否有隐式标识,如检测到隐式标识,采取合适方式在周边添加显著提示;
(2)没有检测到隐式标识,但用户主动声明的,也要采取合适方式在周边添加显著提示;
(3)没有检测到隐式标识,且用户无主动声明的,但检测到显式标识或生成痕迹的,提示疑似AI生成;
(4)此外,在发布时提供选项,让用户主动声明。
例如,微信公众号后台提供创作来源声明选项,目前不是强制,未来可能会强制要求用户声明,虚假声明的用户可能会受到传播平台的惩罚。
@ 五、应用市场要承担什么义务?
根据《标识办法》第7条,应用市场在上架或上线审核时,先要看APP是否提供AI生成合成服务。若提供,除了大模型上线备案/登记号、算法备案号,还要检查其生成合成标识是否符合规定。
@六、用户要承担什么义务?
根据《标识办法》第10条,用户使用传播服务发布AI生成合成内容的,应主动声明并标识。
此外,任何人不得恶意删除、篡改、伪造、隐匿标识,不得为该等恶意行为提供工具服务,不得通过不正当标识手段损害他人合法权益。这一规定不仅约束用户,也约束其他人。
在实务中,用户使用生成式AI生成内容后,可能进行二次创作加工,比如对于AI生成的文案进行人工筛选、截取、合并,或对于AI生成的图片、视频进行人工裁剪、拼接、翻拍,这些操作可能会导致显式或隐式标识丢失。我们理解,只要不是恶意删除AI标识,不违反上述规定。
对于上述人机共创的内容,用户该如何声明并标识呢?是否只要包含AI生成内容,均标识为AI生成?还是说AI生成内容达到一定比例才予以标识?如果只有有/无两种选项,可能会影响用户主动标识的积极性。传播服务商可以探索提供更细颗粒度的选项,供用户选择。
@ 七、什么情况下标识义务可以豁免?
《标识办法》第9条规定,用户申请内容生成服务商提供没有添加显式标识的生成合成内容的,服务提供者可以在通过用户协议明确用户的标识义务和使用责任后,提供不含显式标识的生成合成内容,并依法留存提供对象信息等相关日志不少于六个月。
豁免显式标识的规定,旨在平衡用户需求与法律监管。用户可能因内部使用、二次创作等特定场景,需要服务提供者生成不添加显式标识的内容。如,广告公司在生成内部视频时可能不需要显式标识。但要注意,这一规定只豁免了生成环节的显式标识义务,没有豁免传播环节的标识义务,也没有豁免隐式标识义务。
@ 八、违反《标识办法》的法律责任是什么?
《标识办法》未直接规定罚则。根据《算法推荐管理规定》《网络安全法》等,相关法律责任如下表所示:
我们理解,应做而未做AI标识的内容未必构成“法律、行政法规禁止传播的内容”,只有构成虚假信息或其他违法信息,才属于“法律、行政法规禁止传播的内容”。