社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  aigc

AIGC内容生产应从被动合规到主动协同

中国新闻出版广电报 • 4 月前 • 120 次点击  

杭州互联网法院针对“奥特曼案”发出的首份涉生成式人工智能司法建议书,不仅是对个案裁判的延伸,更是对技术革新与法律规则碰撞的前瞻性回应。建议书从“通知+必要措施”机制完善、LoRA模型(低秩适应模型)监管、知识产权日常管理、企业合规建设四个维度,为生成式AI平台的版权治理提供了系统性框架,建议发出后很快得到企业回应,相关的具体回应措施也非常有针对性。


笔者作为该案原告代理律师,结合司法建议和企业回应的核心内容,探讨如何重塑AI时代的平台版权保护机制。


完善“通知+必要措施”机制:

从被动响应到主动防御


在传统互联网侵权纠纷中,“通知-删除”规则是平台免责的核心依据。然而,生成式AI的技术特性使得侵权内容可能通过模型训练与用户指令快速扩散,因此需要对权利人的投诉更快地做出反应。司法建议中的完善“通知+必要措施”机制正是针对这一点。


对此,企业回复采取了包含显著投诉入口优化、处理流程透明化、专职团队建设等举措,其本质是更加积极主动的响应投诉。更具体的做法还可以考虑例如白名单机制,为符合条件的版权方开放“快速通道”,允许其上传正版素材并自动巡查识别侵权线索;发布透明度报告;每月公布侵权拦截数据、误判率及优化措施,接受公众监督。


在投诉处理过程中,一个新的问题是,除了对具体生成内容的处理,还包括了对侵权LoRA模型的处理,判决书要求“对于被诉侵权的奥特曼LoRA模型,被告公司均应予以删除,并应停止提供相关奥特曼LoRA模型的发布和应用服务”。理由是,法院认为,仅删除LoRA模型的封面图或示例图无法彻底制止侵权,因模型本身包含奥特曼形象的独创性特征,可能被用户反复使用生成更多侵权内容,所以应立即停止提供相关奥特曼LoRA模型的发布和应用服务。


可见,在定向模型训练和发布平台上,“通知-删除”这一避风港机制所要覆盖的侵权行为已经涵盖了模型本身,尤其是对特殊训练过的Lora模型,如果其作用就用定向生成侵权内容,则不但应该删除模型,还需要停止提供对应的发布和应用服务,这一点值得所有大模型平台关注。


平台对LoRA模型监管:

贯穿模型整个生命周期


该案的核心争议点之一,是被告平台允许用户上传奥特曼形象训练LoRA模型,并利用其定向生成侵权内容。LoRA模型因其轻量化、易传播的特性,成为用户定制化生成内容的主要工具,但也成为版权侵权的“放大器”。


建议书中提出“加强对LoRA模型的平台监管”,对于LoRA模型这种新技术的合规管理给出了方向。平台采取的措施也非常有针对性,贯穿了LoRA模型的生命周期。笔者认为,在模型的不同阶段可以结合现有的技术能力采取不同的具体措施,包括,训练阶段筛查:对用户上传的训练素材进行关键字、版权标识识别(如数字水印检测),拦截明显侵权内容;生成阶段过滤:通过图像相似度算法,限制生成内容与原作的实质性相似度阈值(类似市面上已有的伪原创检测);模型分享管理:对涉及知名IP的LoRA模型建立分级标签,限制其公开传播范围。


这些举措没有囿于传统“避风港原则”的局限,把重心从“事后处理”前移至“过程干预”,让技术创新始终处于人的控制之下。并非所有的平台都要使用如此高强度的技术措施,法律仍然会考量平台的合规成本和效果之间的平衡,但是对于大模型而言,从其各个生命周期入手,潜入合规措施,一定是未来的方向。


强化知识产权日常管理:

从技术风控到生态治理


杭州互联网法院建议的第三个方面是“强化平台知识产权日常管理”,笔者认为,该条主要是针对平台上用户已发布的内容。如果说前面的举措是模型管控,那么这个则是模型内容管控,旨在构建健康的AIGC内容生态。


结合企业采取的针对性措施,笔者认为可以做的合规动作包括,算法权重调整:在推荐系统中增加版权合规权重,降低侵权内容曝光概率;用户行为引导:通过协议条款明确禁止使用未授权IP训练模型,并对违规用户实施梯度处罚;数据可追溯性:利用区块链等技术记录模型训练数据来源,为版权争议提供溯源证据。


不难发现,在技术越来越复杂的今天,单纯的人工管理内容已经完全滞后于产业发展,因此引入技术治理模式才是解决之道,不论是内容算法上的调整,还是侵权行为溯源,都体现了“技术合规”的理念,这种治理模式不仅降低法律风险,更可以高效推动平台从“流量至上”向“价值优先”转型。


值得肯定的是,杭州互联网法院的司法建议,首次在司法层面系统回应了生成式AI的版权平台治理难题,生成式AI的版权治理本质是技术理性与法律价值的动态平衡。杭州“奥特曼案”的司法建议以精细化规则回应技术复杂性,以协同共治替代单向监管,为AI时代的版权保护树立了新范式。其核心价值在于关注到AI生成过程的不同阶段:数据输入、训练、输出、使用,对训练阶段相对宽容,对生成和使用两阶段从严管控,很好地平衡了技术创新与版权保护,堪称AIGC平台合规的样板。


(作者系浙江垦丁律师事务所主任)



编辑:路滢月
审核:李雪昆
图片
使用AI创作音乐有哪些版权风险

图片

最近更新了微信版本的人,大家很难在杂乱的消息列表里找到我!
其实只要简单的几步操作,将我置顶起来——

图片
图片


中国新闻出版传媒集团微信矩阵

↓看看更有针对性的细分领域↓

版话儿

版人版语

传媒瞭望

发行观察

广电家

好书品读

印业独家

中国农家书屋

中国出版

↑喜欢我,就点开二维码图片并识别我吧↑




Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/182960