来源:数语者
2025 年 9 月 1 日起施行《人工智能生成合成内容标识办法》(以下简称《标识办法》),由国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局2025年3月7日联合发布。
新规为啥出台?
现在 AIGC 技术发展非常快,给内容创作和传播带来了好多机会。但是,它也带来了不少问题。比如说,生成的内容不好追溯来源,信息可能误导人,还缺少有效的监管。这就导致虚假信息到处传播、身份信息被冒用、恶意内容也冒出来了。所以《标识办法》就出台了。
标识办法有啥要求?
《标识办法》主要就是规范 AI 生成内容的标识,分成显式标识和隐式标识两种。显式标识,就是在生成的内容或者交互界面上,用文字、声音、图形这些能让用户一眼就看到、听到的方式做标识。比如说,你用 AI 生成了一篇文章,那就在文章开头或者结尾,清楚地写上 “本文由 AI 生成”;要是生成了一段视频,就在视频开头或者画面角落里,放个明显的提示。隐式标识呢,就是通过技术手段,在生成内容的文件数据里加个标识,用户不太容易直接看到,但可以通过特定技术查到。
具体到各种内容形式,像文本,要在开头、结尾或者中间合适的地方加文字提示或者通用符号提示,也可以在交互界面显眼的地方提示;音频呢,在开头、结尾或者中间加语音提示,或者在播放界面做标识;图片要在合适位置加明显标识;视频除了在开头画面和播放界面周边标识,中间和末尾也可以补充;虚拟场景就在起始画面设置标识,过程中也可以适当加。而且,当用户下载、复制或者导出 AI 生成内容时,咱们服务提供者得保证文件里的显式标识还在。
从业者面临哪些法律风险?
训练数据合法性风险
要是训练模型的时候,用了未经授权的作品,那可就麻烦了。比如说 Getty Images 起诉 Stability AI 案,就因为 LAION-5B 数据集中有 1200 万张未授权图片,结果 Stable Diffusion 3.0 都下架了。还有某医疗 AI 公司,因为训练数据里有 5 万份没脱敏的病历,被欧盟 GDPR 罚了 2.3 亿美元,这可不是小数目啊!咱们可得注意,训练数据得合法,别给自己惹上大麻烦。
生成内容版权归属风险
现在 AI 生成内容的版权归属还挺复杂的。美国版权局裁定 “AI 生成漫画《黎明的曙光》不享有版权”,不过要是人类参与度达到一定程度,作品是可以部分确权的。而且,要是 AI 生成的内容和某个创作者风格太像,也可能被起诉侵权。比如说某插画师起诉 AI 工具生成作品和自己风格相似度达 89%,虽然法院最后因为 “艺术风格不受版权保护” 驳回了,但也要求 AI 方公开训练数据来源。咱们在生成内容的时候,得考虑清楚版权问题,别一不小心侵权了。
算法歧视风险
算法歧视这个问题也不能忽视。亚马逊 AI 简历筛选工具对女性求职者降权 40%,结果触发了 EEOC 调查,最后赔了 2300 万美元;某银行风控模型对少数族裔拒贷率高 3 倍,违反了《公平信贷机会法》,CEO 还得承担个人责任。咱们做 AIGC,得保证算法公平,别让算法歧视的问题出现。
违反标识规定风险
《标识办法》明确规定了标识要求,要是咱们不按照规定给 AI 生成内容加标识,或者恶意删除、篡改、伪造标识,那就要承担法律责任了。比如说,用户用网络信息传播服务发布 AI 生成内容,得主动声明并且用平台提供的标识功能标识,要是不这么做,就不符合合规要求。咱们可不能在标识这件事上偷懒,一定要严格按照规定来。
从业者该如何应对?
这 5 条保命提醒赶紧记牢!
双标识是底线:显式标识(文字 / 图标)得让用户一眼看见,隐式标识(数字水印 / 元数据)藏在文件里别漏掉,缺一个都可能挨罚。
数据别乱喂:训练素材要干净!没授权的图文、带隐私的病历、盗版影视剧,沾了就可能吃官司,参考某公司因 5 万份病历被罚 2.3 亿美元的教训。版权算清楚:AI 生成内容别直接标 “原创”,和人类作品撞车要主动避让,风格模仿太像也可能被告,某插画师维权案就是例子。算法别偏心:生成内容别搞性别、种族歧视,亚马逊简历工具歧视女性赔了 2300 万,这坑咱可别跳。平台要盯紧
:传播时先看平台规则,三级核验机制(确认 / 可能 / 疑似 AI 生成)得配合,用户删标识咱得拦着。
总的来说,《标识办法》的出台,虽然给咱们 AIGC 从业者带来了一些挑战,但也是规范行业发展的好机会。只要咱们重视合规,积极应对,就能在这个充满机遇的领域继续好好发展。
法规原文:
https://www.gov.cn/zhengce/zhengceku/202503/content_7014286.htm
大家对这个新规有啥想法,或者在实际操作中有啥问题,都可以在评论区留言,咱们一起讨论。