(一)立法现状
目前,中国尚未在《著作权法》层面制定专门针对AIGC问题的成文规则。2020年修正的《著作权法》未直接回应“AI生成内容是否构成作品”及“权利归属”等根本性问题。2023年,国家网信办等部门联合出台《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》),其中第七条明确规定服务提供者需“使用具有合法来源的数据”,不得侵害他人知识产权。但《暂行办法》的核心侧重在于算法安全、内容生态治理与平台责任,并未深入触及著作权归属与侵权认定的实体法理问题。
面对立法空白,中国法院在处理相关纠纷时,无法直接援引现成法条,而是回归著作权法的基本原理,通过解释和适用“作品”定义、“独创性”等核心概念来回应技术挑战。这种“司法先行”的路径,在一系列标志性案件中得到了充分体现,并逐步形成了一套相对稳定的裁判逻辑。
(二)司法路径演进
中国法院对AIGC著作权问题的探索,并非立场摇摆,而是在“人类独创性智力投入”这一统一标准下,针对不同技术场景的持续深化与具体化。这一演进过程清晰地体现在几个标志性案件的裁判逻辑中。
1. “菲林诉百度案”[1](2018-2019)
该案是国内较早触及“机器自动生成内容”可版权性问题的案件。法院在审理中确认了重要的原则。法院认为,根据现行法律规定,文字作品应由自然人创作完成。对于利用统计软件自动生成的图表,其变化仅源于数据本身,未体现人类创作选择,故不具独创性;而对于文章的文字分析部分,法院通过比对发现,原告在使用软件输出基础上加入了独立分析、判断与解读,体现了智力投入,最终认定该部分构成文字作品。此案的重要意义在于确立了审查路径:AIGC的可版权性,关键在于剥离技术外壳后,能否寻得“人”的创造性印记。
2. “腾讯Dreamwriter案”[2](2019)
此案中,被告抗辩称文章由AI“自动撰写”故不构成作品。法院没有停留于表面标签,而是深入剖析了生成过程。法院查明,腾讯团队在数据输入筛选、触发条件设定、模板语料选择等多个环节进行了“个性化的安排和选择”,付出了“实质性智力投入”。最终生成的文章,其内容、结构、表达充分体现了创作团队的意图。法院明确指出,AI在此仅扮演“工具”角色,如同电脑、打印机,真正的创作主体是人(法人)。此案进一步强化了“过程审查”的重要性,为认定具有相当自动化程度的生成内容之权利归属提供了清晰范例。
3. “春风送来了温柔”AI文生图案[3](2023)
此案作为国内“AI文生图”著作权侵权第一案,将裁判逻辑延伸至更复杂的视觉创作领域。原告李某通过反复撰写修改提示词、调整参数、多次迭代筛选,最终生成特定美学风格的图片。法院裁判逻辑可归纳为两点:首先,重申AI模型本身不是作者,作者必须是人;其次,细化判断标准——若AI生成内容体现了人的独创性智力投入,即可构成作品。法院详细审查了原告的创作过程,强调其提示词撰写并非简单堆砌,而是对画面呈现的精准把控;参数调整体现了个性化选择;多次迭代筛选是对表达的进一步优化。这些投入使最终图片具备了可识别的独创性表达。法院最终认定该AI生成图片构成美术作品,原告享有著作权。此案标志着司法审查从文字内容向视觉内容的成功跨越,并建立了更为细致的“智力投入”审查框架。
4. 2024-2026年案例趋势
近年来的司法实践持续深化上述原则。例如,2024年江苏常熟法院审理的“伴心案”[4],法院认定AI生成图片因具备独创性而构成美术作品,进一步确认了“春风案”确立的标准。同时,平台责任与用户责任的边界也在具体案例中得以明晰。上海人工智能大模型著作权侵权案“美杜莎案”[5](2025年)法院结合用户使用特定IP形象进行模型训练并投入商业使用的具体行为,认定构成著作权侵权。而2026年3月,上海黄浦区法院在一起AI提示词著作权侵权案[6]中,法院的裁判进一步细化了创作性贡献的认定。这些案例共同表明,司法路径在持续演进中保持了内在一致性,且正朝着更精细化、场景化的方向发展。
(三)核心裁判标准
综合前述案例,可以提炼出中国法院在判断AIGC是否构成作品及权利归属时,系统审查的五个关键维度,形成一个从意图到结果的完整判断链条。
1. 创作意图的发起:一切始于“人”的构思。法院会考察创作主题、风格、情感表达等核心创意是否由人发起和主导。若过程仅为机器随机启动或缺乏人类预设的创意框架,则难以认定存在受保护的作品。
2. 提示词与参数的设计:这是体现“智力投入”最核心的环节。法院将对比指令的复杂程度。是简单、随意的描述,还是经过深思熟虑、反复调试的精准指令?参数调整是否具有目的性和选择性?越复杂、具体、体现创作判断的指令,越能证明人类的智力贡献。
3. 生成过程的控制与选择:法院关注人类对生成结果是否进行了主动控制与筛选。用户是否对AI生成的多轮结果进行比对、评判、取舍?是否基于不满意的结果反向调整指令?这种“调试-生成-筛选”的互动过程,是人类发挥主观能动性、对最终表达施加控制的关键体现。
4. 生成后的加工与修改:“一键生成”往往不是终点。法院会审查用户是否在AI输出基础上进行了实质性的二次加工,如图像精修、文本重写、结构重组等。这种后期编辑若带来了实质性改变,将进一步烙上创作者的个人印记。
5. 最终成果的个性表达:最后,法院会审视结果本身。生成物是否呈现出独特的、可辨识的风格或情感内核?能否让人感受到这是特定个体通过智能工具实现的个性化表达?这是对前序投入在结果层面的综合检验。
总而言之,法院通过审视这条完整的“创作链条”,来判断AI强大生成能力背后所呈现的,究竟是“人类智慧的印记”还是仅仅为“机器的运算结果”。
(四)权利归属认定
当AIGC内容被认定为作品后,其权利归属遵循“谁贡献,谁拥有”的基本原则。即谁投入了足以构成“创作”的独创性智力,谁就享有著作权。如“春风案”中,因用户在提示词设计、参数调整、迭代筛选过程中付出了持续具体的智力投入,法院将著作权判给用户。
然而,这一原则受到“合同约定”的约束。实践中,几乎所有的AI平台服务协议都会对生成内容的权利归属作出预先安排,且其效力通常会被司法尊重。主流平台的约定模式主要有四类:一是用户完全拥有(如OpenAI商业条款);二是用户拥有著作权但平台获得广泛许可(最常见模式);三是平台拥有或双方共有;四是开放共享型(基于开源模型)。因此,用户权利既来源于其实质性智力付出,也受制于其点击同意的服务协议。在AI世界中,创作之前阅读合同条款至关重要。
(五)举证责任与证据固定
在诉讼中,主张权利的一方负有举证责任,需证明其在生成过程中投入了受著作权法保护的独创性智力劳动。有效的证据主要包括四类:
创作过程的全程记录:包括完整的提示词迭代史、参数设置记录、多轮生成结果对比文件、最终选定理由说明,甚至创作前的构思草图等,构成一条完整的思维轨迹链。
平台协议与后台日志:用户协议明确权利基础,平台后台数据日志可与本地记录相互印证,构建电子证据链。
后期编辑的原始文件:若进行二次加工,保存能体现编辑过程的原始文件(如PSD、修订记录)是证明智力贡献达到新高度的直接证据。
第三方技术存证:利用可信时间戳、区块链等技术对关键步骤进行固定,增强证据的客观性与公信力。
一个反面案例((2024)苏0582民初9015号)颇具警示意义:原告仅能提交“一张蝴蝶形状的椅子”等极为简单的提示词证据,法院据此认定其生成内容缺乏独创性智力投入,不构成作品。此案表明,过于简单的指令输入不仅难以形成受保护的作品,更会在诉讼举证中陷入根本困境。
(一)研发运营方的侵权风险
研发运营方面临的侵权风险贯穿于从模型训练到内容分发的全过程。
1. 训练数据阶段的侵权风险
此阶段风险根植于模型对海量数据的摄取与训练过程,是当前全球法律争议的暴风眼。《暂行办法》第七条明确要求使用“具有合法来源的数据”且“不得侵害他人知识产权” 。然而,何为“合法来源”尚缺乏明确的实施细则,实践中存在巨大争议。
在“接触+实质性相似”的侵权判定原则下,若AI模型“反刍”输出与原作品高度相似的内容,研发方极易面临侵权指控。目前,全球范围内已形成大量集中诉讼,如《纽约时报》诉OpenAI案,其核心争议点即在于未经许可使用作品训练AI是否构成合理使用。
2. 内容生成与提供阶段的侵权风险
当模型投入使用,生成内容若与他人作品构成“实质性相似”,平台可能面临侵权指控。司法实践通过典型案例勾勒出平台责任的清晰边界。
“奥特曼案”[7](广州互联网法院,2024)
案情核心是用户输入“生成奥特曼”等提示词,平台直接生成了高度近似的图片。法院三大关键认定极具标杆意义:其一,在侵权定性上,认定生成图片侵害复制权和改编权,审视焦点直接落在“输出结果”与“原作”的比对。其二,在责任认定上,驳回平台“技术中立”和“第三方提供”的抗辩,认定其直接提供侵权生成结果构成直接侵权。法院指出,对“奥特曼”这类知名IP,平台对其被侵权生成具有“可预见性”,未采取合理过滤措施即存在过错。其三,在赔偿考量上,判决赔偿1万元,远低于原告索赔,体现了保护权利与为技术创新留空间的平衡。此案明确警示:平台若深度参与、控制并直接提供生成内容,必须事先建立关键词过滤库和审核机制,“技术中立”抗辩在该情形下难以成立。
“美杜莎案”[8](上海金山法院,2024)
此案案情类似,但判决结果不同。用户利用平台LoRA训练功能,使用“美杜莎”形象训练模型并商用。法院判决用户侵权,但平台免责。关键在于法院对平台是否履行“合理注意义务”的认定。法院指出平台已做到“事前告知(用户协议禁止侵权)、事中可管(设置投诉审核机制)、事后能处(及时下架模型并更新过滤库)”,履行了与其技术能力相匹配的注意义务。此案与“奥特曼案”形成鲜明对比,核心分野在于平台是否主动、直接地参与了侵权内容的生成与提供。
上述两案共同确立了司法裁判的核心逻辑——问题焦点不是“AI是否侵权”,而是“平台是否尽到了与其技术能力、运营模式相匹配的‘合理注意义务’”。这一判断标准在后续司法实践中得到持续发展和细化。
(二)使用者的侵权风险
AIGC使用者作为内容生成行为的发起者和受益者,面临两类主要风险。
直接侵权责任:若用户生成内容被司法认定侵犯他人著作权,用户通常需承担直接侵权责任。若用于商业目的,责任和赔偿更重。
权利落空风险:若生成过程智力投入过低(如仅输入简单指令),内容可能因缺乏独创性而不被认定为作品,无法获得著作权保护,使用者面临权利落空的尴尬境地。
法院认定侵权遵循“接触+实质性相似”原则。关于“接触”要件,司法实践可能倾向于通过高度相似性推定存在接触,但该规则在AIGC场景中的适用仍有待进一步明确。 “实质性相似”要件的认定则需精细化比对独创性表达。
为规避风险,建议使用者应采取以下策略:
选择合规平台,仔细阅读用户协议,明确权利归属与商用权限。在输入提示词时,坚决避免使用知名作品名称、角色名、艺术家标志性风格等高风险指令。
从“直接采用”转向“深度二次创作”。将AI输出视为“高级草稿”或“灵感素材”,必须进行实质性的二次加工,如画面精修、文本重写、结构重组,以增加个人独创性贡献。
系统性保留“人类创作贡献”证据链,包括所有版本的提示词、参数截图、中间生成结果、筛选理由、后期修改记录等。这既是确权基础,也是遭遇侵权指控时的抗辩利器。