[1]《生成式人工智能服务管理暂行办法》第二十二条第(一)项。
[2] See NIST AI 100-1 Artificial Intelligence Risk Management Framework (AI RMF 1.0). https://doi.org/10.6028/NIST.AI.100-1.
[3] 除本表所列主体外,实践中AIGC开发者/服务提供者还可能引入其他系统/产品供应商,以支撑其模型训练或业务运营的软件/硬件环境、技术支持等。
[4]《生成式人工智能服务管理暂行办法》第二十二条第(二)项所定义的“AIGC服务提供者”概念实际上已涵盖了“通过提供可编程接口等方式提供AIGC服务”的主体,为便于区分主体以厘清各方责任,本文针对此等“提供可编程接口的技术开发者”与“服务提供者”并非同一主体时,使用“AIGC开发者”的概念。
[5] 事实上,AIGC技术的模型训练、应用运行和模型优化等各个阶段涉及的数据合规风险要素包括:隐私性(个人信息、商业秘密)与合法性、可靠性与稳健性、透明性与可解释性、准确性与公平性、应用风险、信息内容监管、信息安全(完整性、机密性、可用性),本表仅列举各阶段所涉及的核心风险要素。
[6]《生成式人工智能服务管理暂行办法》第七条第(四)项。
[7] 司法实践中,诸如IP代理等行为均可能被认定为侵入性行为,典型案例包括:(2017)京0108刑初2384号、(2017)浙0110刑初664号、(2019)闽08刑终223号、(2016)浙0681刑初1102号、(2016)沪0115刑初2220号、(2016)浙0602刑初1145号。
[8]《反不正当竞争法》第十二条第二款规定,利用技术手段,通过影响用户选择或者其他方式,实施妨碍、破坏其他经营者合法提供的网络产品或者服务正常运行的行为,构成不正当竞争。
[9] 具体而言,技术措施包括两种:1)访问控制技术措施(又称防止未经许可获得作品的技术措施),该类技术措施是通过设置口令等手段限制他人阅读、欣赏文学艺术作品或者运行计算机软件;2)保护版权人专有权利的技术措施(又称保护版权专有权利的技术措施),即防止对作品进行非法复制、发行等的技术措施。
[10] 关于合理使用的讨论,请见此前文章全景透视生成式AI的法律挑战(一):知识产权挑战与路径。
[11]《个人信息保护法》第二十七条 个人信息处理者可以在合理的范围内处理个人自行公开或者其他已经合法公开的个人信息;个人明确拒绝的除外。个人信息处理者处理已公开的个人信息,对个人权益有重大影响的,应当依照本法规定取得个人同意。
[12] 例如点评诉百度案、点评诉爱帮案,案件具体情况参见(2016)沪73民终242号民事判决书、(2010)海民初字第24463号民事判决书。
[13] 例如“淘宝诉美景案”,案件具体情况参见(2018)浙01民终7312号民事判决书。
[14] 部分域外案例中,Clearview AI 和OpenAI的数据来源以及模型的合法性均受到法律挑战。
[15]《个人信息保护法》第十三条规定了处理个人信息的合法性基础,包括取得个人同意、基于履行合同或人力资源管理所必需、基于履行法定义务所必需等。
[16] https://openai.com/policies/privacy-policy,最后访问日期:2023年5月30日。
[17] 详情见Open AI: How your data is used to improve model performance, https://help.openai.com/en/articles/5722486-how-your-data-is-used-to-improve-model-performance,最后访问日期:2023年5月31日。
[18] https://www.thepaper.cn/newsDetail_forward_22643886,最后访问日期:2023年5月31日。
[19] 例如,近期开源ChatGLM-6B可以在消费级的显卡上进行本地部署,https://github.com/THUDM/ChatGLM-6B,最后访问日期:2023年5月31日。
[20] 例如,在《个人信息保护法》项下,委托处理关系通常由委托方对外承担责任,共同处理关系则由双方承担连带责任,对外提供关系则各自承担责任。
[21] 具体见全国信息安全标准化技术委员会 大数据安全标准特别工作组:《人工智能安全标准化白皮书(2023版)》。