皮勇:ChatGPT的技术优势源于其先进的算法、强大的算力和海量的数据,如果将其用于智慧司法、数字法治建设,将带来诸多便利。
第一,信息检索更加便捷。ChatGPT的数据库资源丰富,数量庞大,人机交互能力优秀,自然语言处理能力强大,能提供相关信息,帮助司法工作人员收集信息资料,了解案件相关专业领域的基本知识。
第二,文书制作更加便捷。在司法活动中有大量的文书制作工作,ChatGPT在制作标准化文书方面具有较强优势,利用ChatGPT快速制作文书初稿,在其基础上修改完善,可以提高文书的制作效率,在降低工作量的同时提升文书的质量。
第三,类案比对更加便捷。司法工作人员在分析、处理案件时需要考虑多方面涉案因素,ChatGPT的海量数据和算法功能有助于司法工作人员快速查找与案件相关的类案信息并进行比对,同时可参考借鉴已生效判决的裁判理由和结果,减少办错案或裁量畸轻畸重的几率。
第四,辅助裁判更加便捷。ChatGPT的概率统计逻辑和算法是以类案作为基础数据,已有相关智能裁判系统在运用该算法逻辑生成辅助裁判结果。
第五,法治宣传。ChatGPT运营者本质上是网络内容信息服务提供商,其提供的信息服务可以用于法治宣传。
不过,ChatGPT的应用也给用户和社会带来新的安全风险。
第一,ChatGPT生成信息所基于的概率统计的算法和已有的数据都有局限性,可能导致ChatGPT生成虚假、误导、无意义或质量差的信息,如果用户盲目信任或者缺乏分辨能力,采信其错误信息,会面临一定风险。
第二,滥用ChatGPT的风险主要是用户不当使用ChatGPT的生成结果,如在国家考试过程中使用ChatGPT作弊、使用ChatGPT编制论文、制造假新闻或谣言。
第三,ChatGPT会带来知识产权侵权风险。一方面,ChatGPT生成信息有可能侵犯他人知识产权,如不当泄露、提供他人商业秘密或者侵犯他人作品;另一方面,ChatGPT或其权利人对其生成的信息是否享有知识产权,是否会产生知识产权法律风险,目前还存在争议。
第四,ChatGPT用户面临的风险。用户使用ChatGPT过程中,会被收集个人信息或其他资料,存在泄露个人信息、商业秘密或国家秘密的风险,即使是片段性或零碎的信息,也可能被ChatGPT与其他数据结合在一起进行挖掘分析,从而推断出关系国家安全、公共安全、个人和组织合法权益的情报信息。
张凌寒:ChatGPT的出现是深度合成领域的重大技术进步,极大地改变了信息获取、人机交互的方式,并成为未来数字空间的基础性技术,ChatGPT的应用无疑能够为智慧司法建设带来革命性改变。
其一,ChatGPT应用于法律咨询,将极大提升公共法律服务的智能化水平。ChatGPT具备语义理解和文本生成的能力,并且能够结合上下文,给出更合逻辑、合理的法律建议。此外,ChatGPT与之前技术的不同之处在于其是采用了海量数据训练的大规模人工智能模型,这使得其生成的文本更加具有创造性。更重要的是,这些模型通常设置了随机元素,意味着它们可以不同的输出应对同一个输入请求,使得ChatGPT看起来更加栩栩如生。
其二,ChatGPT应用于信息检索,将极大提升法律从业者的工作效率。ChatGPT研发的本意不在于信息检索,但支撑其深度学习的预训练语料库极为庞大,与传统的搜索引擎相比,其能精准定位到具体的法律条款。
其三,ChatGPT应用于文本处理,将大幅节省法律从业者的时间和精力。ChatGPT能够根据使用者输入的设定条件,自动生成文本内容,实践中一些合同起草、法律文书撰写、文献翻译等技术含量较低的文字性工作可以交由ChatGPT来完成。总体而言,在智慧司法的3.0阶段,以ChatGPT为代表的深度合成技术将通过支持、取代与重塑三种方式影响司法系统。在支持层面上,技术为司法实践提供了信息与便利性支持;在取代层面上,技术可以部分取代由人类执行的功能和活动;在重塑层面上,技术可以改变司法人员的工作方式,提供与以往不同的司法保障,革新司法流程和提供预测性分析。
深度合成展现了其强大的能量和可能性,但其带来效率和便利的同时,也带来了伴生风险。
其一,人格权侵权风险。ChatGPT的训练数据主要来源于互联网,其中可能包括个人隐私数据,而此前GPT-2就发生过隐私泄露的问题。用户生成合成内容需要上传照片、视频或与人工智能机器直接明文的对话。生成合成类算法应用曾经发生过换脸换声的欺诈、人格权侵权、隐私泄露等案件。在新一代以ChatGPT为代表的生成合成类应用中,用户对话的过程就是被收集信息的过程,尤其是用户在与机器对话的过程中更可能袒露隐私。这些个人信息可能被用于用户画像和训练模型,从而使个人信息的收集、使用和传输都面临安全挑战。
其二,数据安全风险。ChatGPT的预训练大模型促进了合成数据产业的发展,深度合成技术可以模拟真实用户数据并规避高昂的隐私合规成本。深度合成技术也有可能通过预训练大模型的强大推理能力学习找到真实数据。而针对合成数据的治理,各国尚无针对性的规章制度,并且用户与生成型人工智能模型的海量交互数据如果是跨境产生的,还会引发数据跨境安全问题。
其三,知识产权侵权风险。一方面,ChatGPT生成内容存在被他人侵权的风险。在我国现行法律框架下,难以认定人工智能或者电脑算法为作品的作者,因而可能导致这部分内容不能得到法律保护。另一方面,ChatGPT生成内容存在侵犯他人权利的可能性。大多数生成式人工智能模型的训练,使用的是从互联网上搜集的材料,这些材料并没有取得许可或支付报酬,由此可能引发知识产权侵权风险。
张吉豫:一些专业人士认为,ChatGPT这样的通用模型体现出来的智慧涌现,可能改变整个信息分发获取的方式、革新内容生产模式、全面升级人机交互方式,加速推动公众的研究,等等。可以说,这样的通用模型可能成为新一代的基础设施,给各行各业带来影响。其中,其将为智慧司法、数字法治建设带来新的机遇,包括但不限于以下方面:
一是智能检索和推送。例如,ChatGPT可以用于智能法律搜索引擎,能够更快速、智能地搜索出相关的法律条款和类案。
二是智能法律咨询。ChatGPT可用于开发智能法律问答机器人等智能法律咨询产品,能够更快速、准确地回答用户的法律问题,提供更高效、便捷的法律咨询服务。用户可以通过语音或文字与ChatGPT进行交互,获得法律方面的建议和指导。这有助于降低基础法律服务的门槛,使公众可以更加便利地获得一般的法律服务。
三是智能文本分析。ChatGPT可以帮助分析法律数据和文本,从中提取关键信息和模式。例如,ChatGPT可以被用于自动化合同审查和纠纷解决,能够更快速地识别合同中的问题和纠纷,并提供解决方案。这类人工智能技术还可以用于生成摘要、综述等工作,为法律问题的研究提供便利。
四是智能文书撰写。ChatGPT可以辅助撰写合同等法律文件。
当然,ChatGPT在带来便利和机遇的同时,也伴随着许多维度的法律风险。包括侵犯知识产权的风险,生成的信息损害他人人格、财产权益的风险,生成虚假或错误信息、违法不良信息、带有歧视性内容的风险,数据安全风险,等等。其在司法、公共事务等领域的应用,还可能存在挑战程序正义等风险。