不久前,特斯拉CEO埃隆·马斯克向旧金山高等法院提起诉讼,以违反OpenAI成立时签订的创始协议为由起诉OpenAI及其CEO萨姆·奥特曼。马斯克对OpenAI和奥特曼提出了包括违约、违反信托义务和不公平商业行为在内的指控。虽未必与马斯克此次的起诉行为直接相关,但马斯克曾多次在公开场合表达对人工智能安全性的担忧,并呼吁建立配套的安全保障措施。从生成式人工智能(Artificial Intelligence Generated Content, “AIGC”)服务提供者的角度来看,在AIGC技术发展过程中,无可避免地可能会面临各种挑战和争议,其中就包括如何在保证技术创新的同时确保人工智能服务的安全性。
与此事件发生的同时,我国网络安全标准化技术委员会于2024年2月29日发布了《生成式人工智能服务安全基本要求》(TC260-003)。该文件作为我国目前第一部有关AIGC服务在安全性方面的技术性指导文件,罗列了AIGC服务在安全方面应满足的基本要求,为AIGC领域的服务提供者提供了合规及安全评估的指南,同时也为相关主管部门在评判AIGC服务安全水平时提供了参考标准。
为支撑2023年7月10日多部委联合公布的《生成式人工智能服务管理暂行办法》,并对其项下有关服务安全性作进一步细化深入,国家标准化管理委员会下属的全国信息安全标准化技术委员会(下称“委员会”)于2023年10月11日在其官网发布了关于征求《生成式人工智能服务安全基本要求》(征求意见稿)意见的通知,在征求意见稿发布后,各界人士纷纷提供反馈意见,委员会根据这些意见进行了修订和完善,形成了更为全面、严谨的正式文件,并于2024年2月29日正式发布了《生成式人工智能服务安全基本要求》,详细列出了AIGC服务在安全方面的基本要求,包括语料安全、模型安全、安全措施、安全评估等。
《生成式人工智能服务安全基本要求》
的主要内容及要求概览
服务提供者面向特定语料来源进行采集前与后,应对该来源语料进行安全评估或核验,确保相关语料来源含违法不良信息不超过5%。
采用开源语料、自采语料、商业语料和将使用者输入信息作为语料时,应按照《生成式人工智能服务安全基本要求》分别具备相应授权或采集记录。
按照我国网络安全相关法律法规及政策文件要求阻断的信息,不得作为语料。
应采取关键词、分类模型、人工抽检等方式过滤违法不良信息。
应设置知识产权负责人,并建立知识产权管理策略。服务提供者应对训练语料中的主要知识产权侵权风险进行识别,发现存在知识产权侵权等问题的,不应使用相关语料进行训练。
使用包含个人信息的语料时,应取得对应个人同意或者符合法律法规规定;使用包含敏感个人信息的语料时,应取得对应个人单独同意或者符合法律法规规定。
服务提供者应充分论证在服务范围内各领域应用生成式人工智能的必要性、适用性以及安全性。
服务用于关键信息基础设施,以及如自动控制、医疗信息服务、心理咨询、金融信息服务等重要场合的,应具备与风险程度以及场景相适应的保护措施。
服务适用于未成年人的,服务提供者应当采取额外的保护措施,例如应允许监护人设定未成年人防沉迷措施、应允许监护人设定未成年人防沉迷措施等。
服务不适用未成年人的,服务提供者应采取技术或管理措施防止未成年人使用。
服务提供者应对使用者输入信息进行检测,使用者连续三次或一天内累计五次输入违法不良信息或明显诱导生成违法不良信息的,应依法依约采取暂停提供服务等处置措施。
对明显偏激以及明显诱导生成违法不良信息的问题,应拒绝回答。
服务提供者应设置监看人员,并及时根据监看情况提高生成内容质量及安全。
采用人工抽检,从全部语料中随机抽取不少于4000条语料,合格率不应低于96%。
结合关键词、分类模型等技术抽检,从全部语料中随机抽取不少于总量10%的语料,抽样合格率不应低于98%。
评估采用的关键词库、分类模型应符合《生成式人工智能服务安全基本要求》第8章要求(即上述第4部分“其他要求”)。
采用人工抽检,从生成内容测试题库中随机抽取不少于1000条测试题,模型生成内容的抽样合格率不应低于90%。
采用关键词抽检,从生成内容测试题库中随机抽取不少于1000条测试题,模型生成内容的抽样合格率不应低于90%。
采用分类模型抽检,从生成内容测试题库中随机抽取不少于1000条测试题,模型生成内容的抽样合格率不应低于90%。
1.《生成式人工智能服务安全基本要求》是一份对AIGC服务在安全方面进行规范和指导的重要文件。它不仅为当前AIGC服务的安全问题提供了解决方案和方向,而且对未来人工智能技术的发展、监管乃至立法具有一定意义和前瞻价值。具体而言:
(1)《生成式人工智能服务管理暂行办法》作为中国首份专门针对AIGC领域的、已生效的部门规章,其第十七条明确要求“提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应当按照国家有关规定开展安全评估”(“安全评估”)。如我们此前在《“宫斗”背后百年不遇之机遇?-- 生成式人工智能领域立法跟踪与实践新观察》一文中的讨论,“具有舆论属性或者社会动员能力”的解读较为宽泛,因此可以说安全评估几乎是所有AIGC服务都需要满足的通用准入审批要求。
(2) 可以预见,《生成式人工智能服务安全基本要求》将成为相关主管部门在后续实操中评判AIGC服务安全水平以及安全评估结果的重要参考标准(虽然《生成式人工智能服务安全基本要求》仅是一份行业标准或技术规范,并不属于法律、法规、规章甚至是其他规范性文件的范畴,因此并不具备法律强制力,而仅是一种推荐性或指导性的规范)。相关主管部门亦有可能以《生成式人工智能服务安全基本要求》作为抓手和基础(即最低限度的安全要求),更加有针对性地对不同类型、不同级别、以及不同行业和应用场景的AIGC服务的安全性出台进一步的规则或者指引,并予监管(这也符合《暂行办法》确定的“分类分级”监管原则)。
(3) 因此,现阶段,建议AIGC领域的企业应以《生成式人工智能服务安全基本要求》为基础和准绳,开展安全评估、提高安全水平,相应开发、自查、修正及更新自己的AIGC服务和产品,做到“未雨绸缪”。
2. 随着AIGC领域的规范细则和技术标准的不断出台,AIGC领域的企业也面临着越来越具象的合规压力(如《生成式人工智能服务安全基本要求》中提到的知识产权侵权风险、数据和隐私合规风险等),我们建议相关企业对行业法规及政策保持密切关注,必要时应及时聘请法律专业机构协助分析和应对相关合规风险。对于AIGC领域的合规问题,我们也将在后续的专题文章中持续深入解读,供读者进一步探讨和交流。
1. “语料”(又称“训练语料”),是指所有直接作为模型训练输入的数据,包括预训练、优化训练过程中的输入数据。
2. “基础模型”,是指在大量数据上训练的,用于普适性目标、可优化适配多种下游任务的深度神经网络模型。
3. 包括包含违反社会主义核心价值观的内容、包含歧视性内容。
4. 包括包含违反社会主义核心价值观的内容、包含歧视性内容、商业违法违规、侵犯他人合法权益以及无法满足特定服务类型的安全需求。
5. 包括包含违反社会主义核心价值观的内容、包含歧视性内容。
李新杰 合伙人
lixinjie@junhe.com
“碳中和专项基金”是君合律师事务所与北京绿化基金会共同发起的公益项目。
声 明
《君合法律评论》所刊登的文章仅代表作者本人观点,不得视为君合律师事务所或其律师出具的正式法律意见或建议。如需转载或引用该等文章的任何内容,请注明出处。未经本所书面同意,不得转载或使用该等文章中包含的任何图片或影像。如您有意就相关议题进一步交流或探讨,欢迎与本所联系。