在业务流程中越来越广泛地利用生成式人工智能工具,使得有必要审查有关这些工具使用的机构方法和实践。在此框架内,面对生成式人工智能工具提供的速度和效率,人们认为基于完全禁止使用这些工具的方法在实践中不会产生现实的结果。因为禁令性的方法可能会为员工在机构控制和可见性之外使用生成式人工智能工具铺平道路,从而助长失控的使用形式。
在此背景下,在工作场所使用生成式人工智能工具时,采用基于引导、平衡和意识而非禁令的方法至关重要。这种旨在支持生成式人工智能工具的安全和负责任的使用、在员工中建立意识并关注机构风险的方法,将有助于减少失控的使用形式。
在此方向上,公司、机构和组织在工作场所使用生成式人工智能工具时可以考虑的一般事项如下:
· 建立一个清晰的机构政策或指导框架,规定正确和适当使用的界限非常重要。在此背景下,明确在机构活动范围内可以使用的生成式人工智能工具、可以使用这些工具的活动、可能涉及的目标和使用条件、可以作为生成式人工智能工具输入的信息类型、关于所产生输出的使用原则、与数据隐私和安全相关的事项、采用的风险处理方法以及针对员工的培训和意识活动等框架,将有助于在更可预见和受控的基础上处理使用。这种框架将支持员工就他们可以在什么界限和目的下使用生成式人工智能工具达成共识,同时通过明确使用条件,也将能够降低因失控使用而可能产生的风险。将机构政策或指导作为具体框架提供,在机构内部公告并使其可被员工访问,也将支持以清晰且可管理的方式提出有关生成式人工智能工具使用的方针。
在有关第三方提供且可公开访问的生成式人工智能工具使用的政策或指导方面,并没有适用于所有机构的统一方法,使用示例的范围和边界可能会有所不同。
在此框架下,一些机构制定的政策或指导中,在不包含个人数据、商业机密或机构敏感信息的前提下,可能会允许将可公开访问的生成式人工智能工具用于支持创意开发工作、通过语言审查改进文本表达方式,或总结互联网上存在的关于特定主题的内容。相反,政策或指导中也可能认为,包含客户档案、人力资源数据、内部往来邮件等可能包含个人数据或属于机构敏感信息的分享方式,使用生成式人工智能工具是不适当的。
· 在业务流程中生成式人工智能工具的使用范围内,员工在与这些工具交互时,针对机构敏感信息和个人数据采取谨慎的方法至关重要。因为与第三方提供的生成式人工智能工具共享机构敏感信息,可能会导致这些信息在机构控制机制之外被处理。此外,由于用户通过作为输入提交的提示(prompt)也可以处理个人数据,因此在此过程中单独关注个人数据保护相关的事项非常重要。在此背景下,建议充分了解收集了哪种类型的数据、这些数据用于什么目的、与谁共享以及存储多长时间等事项,并仔细检查相关的告知文本和隐私政策。另一方面,直接或间接足以识别个人的个人数据或属于第三方的第三方信息与这些工具共享,也会在个人数据保护方面产生一些风险。在此框架内,建议在与生成式人工智能工具交互时尽可能使用匿名化、概括化和抽象的表达方式。例如,评估认为,使用通用描述而非包含特定人员姓名、日期、位置或类似区分特征的细节,在个人数据保护方面是一种更审慎的方法。特别是在涉及健康数据、财务信息、法律流程相关信息和类似敏感性质的信息时,必须考虑到在生成式人工智能工具的使用中采用更谨慎的方法的重要性。
· 对生成式人工智能工具产生的输出过度信任,并导致人类判断力处于次要地位的风险,是业务流程中需要仔细评估的事项。这种情况在文献中也称为“自动化偏差”(automation bias),会导致用户不对自动系统产生的输出进行充分的质疑和评估,而是直接接受并使其自身的推理过程处于次要地位。此外,生成式人工智能工具产生的形式上连贯且看起来令人信服,但不符合现实的内容(幻觉),可能会导致错误或误导性信息在未被察觉的情况下纳入业务流程。此类输出可能会导致机构决策过程中的错误评估。在此框架内,不要将生成式人工智能工具产生的输出作为最终决策的依据,在人类监督和评估下将其视为辅助元素至关重要。另一方面,采用基于对生成式人工智能输出在准确性、适用性和上下文方面进行审查的方法,并在此背景下对可能产生偏见或歧视性结果的内容保持谨慎并设想一个评估流程,是需要考虑的事项。
· 为了管理工作流程中生成式人工智能工具的使用,评估有关数据安全和访问控制的措施非常重要。在此背景下,采用确保员工只能访问由机构确定且定义了使用条件的生成式人工智能工具的方法,将有助于减少失控的使用形式。在此方向上,明确与生成式人工智能工具不适合共享的信息类型的框架,并以基于任务和需求的方法处理对这些工具的访问,将支持在更可预见的基础上评估使用情况。此外,评估在网络层面限制对外部平台访问的控制、确定可以通过哪些设备访问生成式人工智能工具(例如,仅通过机构设备)以及采用基于角色的方法来确定哪些员工群体可以在什么范围内使用这些工具,等做法在风险管理方面也是补充性的。
为了能够在业务流程中安全地使用生成式人工智能工具,在员工中建立意识被视为一项重要事项。在此背景下,在机构内部公告有关使用生成式人工智能工具的政策或指导,确保员工能够轻松访问这些文件,并及时告知政策更新非常重要。此外,针对员工开展有关生成式人工智能工具的一般使用目的、可能出现的风险以及需要注意的事项的信息交流和培训活动,将有助于建立对这些工具使用可能导致的技术和法律风险的认识。此类活动将支持员工以质疑和批判的眼光看待生成式人工智能工具产生的输出,并关注人类评估的重要性。此外,建立能够使员工分享使用生成式人工智能工具的经验以及他们所遇到问题的反馈机制,将使识别实践中可能出现的风险和改进领域成为可能。这种方法不仅有助于在必要时审查政策和实践,还将支持在机构内部发展旨在道德和负责任地使用生成式人工智能的企业文化。
在此背景下,总体评估时,在考虑潜在风险和法律义务的情况下,处理在工作场所使用生成式人工智能工具的方法非常重要。在此框架内,将生成式人工智能工具的使用置于道德和负责任的基础上,将有助于可持续地评估这些工具提供的速度和效率。在此方向上采用的综合方法,将在支持在工作场所可预见和负责任地使用生成式人工智能工具的同时,也将有助于防止因失控使用而可能产生的风险。