社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  aigc

工作场所中使用AIGC工具的指南

数据何规 • 2 周前 • 38 次点击  









小Lynn说:如何让员工在公司合规使用生成式AI,是个一直让法务合规小伙伴们很头疼的问题。一方面,AI确实极大地提升了办公效率,企业也因此获益良多;但另一方面,数据泄露、安全合规等风险也如影随形。彻底禁止难免扼杀效率,但完全放任又会带来不可控的合规隐患。面对效率与安全的博弈,我们到底该如何破局?土耳其数据保护局(KVKK)近期发布了一份关于《工作场所使用生成式AI》的指南,对这一问题进行了非常清晰的梳理,既有风险洞察,也提出了治理思路,参考价值很高。我用AI工具将其翻译成了中文,分享给各位,希望能为正在搭建企业内部AI合规体系的你提供一些启发。










1

工作场所中生成式人工智能工具的使用概述


“生成式人工智能”(ÜYZ - Generative Artificial Intelligence)是指基于大规模数据集训练,并能响应用户提交的提示(prompt)以生成文本、图像、视频、音频或软件代码等不同格式内容的各种人工智能(AI)系统。与大多数侧重于对现有数据进行分类或预测的传统人工智能方法不同,这些系统具有基于统计模式生成与人类创作内容相似的新内容的能力。


在此背景下,基于生成式人工智能的工具正在引发业务流程执行方式的变革,并使在不同领域开发新的应用和使用形式成为可能。因此,客户服务、市场营销与广告、教育、医疗、法律和软件开发等各个领域都在从这些工具中受益。


生成式人工智能工具的普及和可访问性的增加,简化了员工在业务流程中利用这些工具的过程。在工作场所使用生成式人工智能工具并不局限于特定的行业或职业,而是为了支持不同专业领域的业务流程而选择使用。这些工具处理不同类型内容并在短时间内生成结果的能力,使其能够以多种方式融入日常工作流程。在此背景下,诸如准备电子邮件和文本草稿、总结文件并对其内容进行评估、支持创意开发工作、创建会议纪要以及为研究活动做出贡献等使用示例比比皆是。


生成式人工智能工具所提供的速度和效率,为许多机构在其业务流程的各个阶段使用这些工具奠定了基础。自动化重复性任务、更有效地执行业务流程以及能够将员工引导至更高附加值的活动,是生成式人工智能使用普及的有效因素。


在工作场所使用生成式人工智能工具,在大多数情况下是通过第三方提供且可公开访问的工具来实现的。基于聊天的生成式人工智能应用程序、支持软件开发流程的编码助手以及旨在进行翻译和文本生成的工具,是员工为支持业务流程而广泛使用的应用程序。



2

生成式人工智能工具的失控使用

(影子人工智能)及其带来的风险


通常来看,“影子人工智能”(Shadow AI)是指在机构或组织内部,员工在未经该机构或组织知情、批准或进行机构控制的情况下,在业务流程中使用生成式人工智能工具的情况。此类使用往往源于员工的个人主动性,并以现有机构IT基础设施、治理框架和审计机制无法预见或无法充分监控的方式发生。因此,对于主管单位而言,关于使用了哪些生成式人工智能工具、用于何种目的、向这些工具提供了哪些类型的数据作为输入,以及所获得的输出如何在业务流程中被评估,其机构层面的可见性和审计能力可能会受到限制。


对于许多机构而言,影子人工智能已不再是一个仅存于理论或未来的风险领域,而是一个在日常工作流程和数字工作环境中遇到的现实。随着生成式人工智能工具的普及,员工将其纳入业务流程的倾向也在增加。在此背景下,会议纪要、内部往来邮件、报告草稿、有关员工或客户的信息以及有关机构活动的各种非公开数据,都可能被第三方提供的生成式人工智能工具所共享。


这些使用示例中很大一部分被员工视为日常工作流程的自然组成部分,并作为提高效率的实用手段而受到欢迎。在此背景下,员工在影子人工智能使用中期待节省时间、减少日常工作和提高成果质量的心理发挥了作用。此外,生成式人工智能工具免费或低成本、提供易于访问的解决方案、以及在易于使用的界面中提供且不需要高技术知识的特点,也是导致个人使用增加的因素。在机构层面缺乏关于生成式人工智能使用的政策和指导,或者该框架不够清晰,也会加剧这种倾向。


影子人工智能现象与机构长期以来面临的“影子IT”(Shadow IT)应用程序具有某些共同特征。通常,影子IT是指在机构或组织内部用于工作目的,但机构或组织未知、未监控或未纳入机构风险管理流程的IT资产和服务。此概念不仅限于员工使用的设备,还包括个人云存储服务以及其他外部IT解决方案。例如,员工为了从不同位置访问机构数据,将具有机构敏感性质的信息保存在个人云账户中,由于这些服务超出了机构的安全和风险管理流程,因此被评估为影子IT的范畴。


影子IT应用程序可能因员工认为批准的工具和流程不足或不实用而出现,并可能导致偏好使用非官方的替代方案,以简化工作完成。尽管在影子人工智能的使用中也存在类似的动态,但影子人工智能,特别是由于生成式人工智能工具在数据处理、内容生成和直接影响业务流程的决策机制方面的能力,带来了需要从不同维度处理的风险。在此背景下,影子人工智能不仅是一种失控的技术工具的使用,还带来了关于所使用数据的性质、所产生的输出以及在业务流程中使用这些输出方面的附加风险。


影子人工智能使用的普及,在很大程度上增加了机构风险管理的难度。因为在无法提供关于使用了哪些生成式人工智能工具、用于何种目的、与这些工具共享了哪些类型的数据以及这种使用在何种框架内进行等事项的足够可见性的情况下,评估对法律义务的合规性以及在发生违规情况时采取有效干预措施变得更加困难。在此背景下,影子人工智能使用带来的部分风险可以列举如下:


  • 关于可审计性和问责制的风险: 在不遵守机构记录、监控或审计机制的生成式人工智能工具范围内产生的输出,很难事后确定使用了哪些数据、目的和范围是什么,以及某些结果产生的原因。这种情况可能会削弱事件响应流程的有效执行,并难以证明是否符合法规。


  • 关于决策质量和准确性的风险: 在未经过机构评估和验证流程的情况下使用的生成式人工智能工具,可能会产生错误、误导或不一致的输出,并导致偏见的结果。基于此类输出做出的决定可能会导致业务流程中的错误,并可能产生与机构的目标、质量标准或道德原则不一致的结果。


  • 关于知识产权和商业机密保护的风险: 将源代码、产品设计、业务策略、商业机密或其他对竞争具有敏感性质的机密信息与外部生成式人工智能工具共享,可能会带来侵犯知识产权、此类信息泄露或对该信息缺乏机构控制的风险。如果此类信息与第三方提供且可公开访问的生成式人工智能工具共享,这些信息在某些情况下可能会被用于模型开发或改进流程,或被未经授权的人员所获取。


  • 关于机构声誉和失去信任的风险: 使用准确性和可靠性未经确认的生成式人工智能输出,可能会通过错误信息或低质量内容生产损害机构在利益相关者心目中的可信度,从而对机构声誉产生负面影响。


  • 关于信息安全和网络安全的风险: 在机构控制之外使用的生成式人工智能工具,可能会通过不安全的应用程序接口(API)、个人设备或未受管理的集成,扩大机构的攻击面。此类使用形式可能会增加遭受恶意软件攻击、未经授权的访问、数据丢失以及可能影响机构系统完整性的网络安全风险。


  • 关于保护个人数据的风险: 在机构控制之外使用的生成式人工智能工具共享个人数据,可能会增加数据泄露的风险。此类使用可能会导致个人数据被非法处理、被未经授权的人员获取或被滥用。此外,用户通过提示(prompt)共享的个人数据或机构层面的敏感信息反映在生成的输出中,并导致第三方能够通过这些输出获取该信息,也是需要考虑的重要安全问题。


6698号法律(土耳其个人数据保护法)建立了一个通用的法律框架,无论技术如何,在处理个人数据的任何情况下均适用,通过生成式人工智能系统执行的个人数据处理活动也在此框架内进行评估。在此框架内,遵守有关在基于生成式人工智能系统的工具中使用个人数据的法规非常重要。


在此方向上,评估生成式人工智能系统在个人数据保护背景下的影响,在这些系统的开发和使用中鼓励尊重个人隐私的方法,并为生成式人工智能系统整个生命周期内执行个人数据处理活动而言具有数据控制者身份的参与者提供指导,建议参考机构(KVKK)准备的“生成式人工智能与个人数据保护指南(15个问题)”。



3

在工作场所使用生成式人工智能工具时

应考虑的事项


在业务流程中越来越广泛地利用生成式人工智能工具,使得有必要审查有关这些工具使用的机构方法和实践。在此框架内,面对生成式人工智能工具提供的速度和效率,人们认为基于完全禁止使用这些工具的方法在实践中不会产生现实的结果。因为禁令性的方法可能会为员工在机构控制和可见性之外使用生成式人工智能工具铺平道路,从而助长失控的使用形式。


在此背景下,在工作场所使用生成式人工智能工具时,采用基于引导、平衡和意识而非禁令的方法至关重要。这种旨在支持生成式人工智能工具的安全和负责任的使用、在员工中建立意识并关注机构风险的方法,将有助于减少失控的使用形式。


在此方向上,公司、机构和组织在工作场所使用生成式人工智能工具时可以考虑的一般事项如下:


· 建立一个清晰的机构政策或指导框架,规定正确和适当使用的界限非常重要。在此背景下,明确在机构活动范围内可以使用的生成式人工智能工具、可以使用这些工具的活动、可能涉及的目标和使用条件、可以作为生成式人工智能工具输入的信息类型、关于所产生输出的使用原则、与数据隐私和安全相关的事项、采用的风险处理方法以及针对员工的培训和意识活动等框架,将有助于在更可预见和受控的基础上处理使用。这种框架将支持员工就他们可以在什么界限和目的下使用生成式人工智能工具达成共识,同时通过明确使用条件,也将能够降低因失控使用而可能产生的风险。将机构政策或指导作为具体框架提供,在机构内部公告并使其可被员工访问,也将支持以清晰且可管理的方式提出有关生成式人工智能工具使用的方针。


在有关第三方提供且可公开访问的生成式人工智能工具使用的政策或指导方面,并没有适用于所有机构的统一方法,使用示例的范围和边界可能会有所不同。


在此框架下,一些机构制定的政策或指导中,在不包含个人数据、商业机密或机构敏感信息的前提下,可能会允许将可公开访问的生成式人工智能工具用于支持创意开发工作、通过语言审查改进文本表达方式,或总结互联网上存在的关于特定主题的内容。相反,政策或指导中也可能认为,包含客户档案、人力资源数据、内部往来邮件等可能包含个人数据或属于机构敏感信息的分享方式,使用生成式人工智能工具是不适当的。


· 在业务流程中生成式人工智能工具的使用范围内,员工在与这些工具交互时,针对机构敏感信息和个人数据采取谨慎的方法至关重要。因为与第三方提供的生成式人工智能工具共享机构敏感信息,可能会导致这些信息在机构控制机制之外被处理。此外,由于用户通过作为输入提交的提示(prompt)也可以处理个人数据,因此在此过程中单独关注个人数据保护相关的事项非常重要。在此背景下,建议充分了解收集了哪种类型的数据、这些数据用于什么目的、与谁共享以及存储多长时间等事项,并仔细检查相关的告知文本和隐私政策。另一方面,直接或间接足以识别个人的个人数据或属于第三方的第三方信息与这些工具共享,也会在个人数据保护方面产生一些风险。在此框架内,建议在与生成式人工智能工具交互时尽可能使用匿名化、概括化和抽象的表达方式。例如,评估认为,使用通用描述而非包含特定人员姓名、日期、位置或类似区分特征的细节,在个人数据保护方面是一种更审慎的方法。特别是在涉及健康数据、财务信息、法律流程相关信息和类似敏感性质的信息时,必须考虑到在生成式人工智能工具的使用中采用更谨慎的方法的重要性。


· 对生成式人工智能工具产生的输出过度信任,并导致人类判断力处于次要地位的风险,是业务流程中需要仔细评估的事项。这种情况在文献中也称为“自动化偏差”(automation bias),会导致用户不对自动系统产生的输出进行充分的质疑和评估,而是直接接受并使其自身的推理过程处于次要地位。此外,生成式人工智能工具产生的形式上连贯且看起来令人信服,但不符合现实的内容(幻觉),可能会导致错误或误导性信息在未被察觉的情况下纳入业务流程。此类输出可能会导致机构决策过程中的错误评估。在此框架内,不要将生成式人工智能工具产生的输出作为最终决策的依据,在人类监督和评估下将其视为辅助元素至关重要。另一方面,采用基于对生成式人工智能输出在准确性、适用性和上下文方面进行审查的方法,并在此背景下对可能产生偏见或歧视性结果的内容保持谨慎并设想一个评估流程,是需要考虑的事项。


· 为了管理工作流程中生成式人工智能工具的使用,评估有关数据安全和访问控制的措施非常重要。在此背景下,采用确保员工只能访问由机构确定且定义了使用条件的生成式人工智能工具的方法,将有助于减少失控的使用形式。在此方向上,明确与生成式人工智能工具不适合共享的信息类型的框架,并以基于任务和需求的方法处理对这些工具的访问,将支持在更可预见的基础上评估使用情况。此外,评估在网络层面限制对外部平台访问的控制、确定可以通过哪些设备访问生成式人工智能工具(例如,仅通过机构设备)以及采用基于角色的方法来确定哪些员工群体可以在什么范围内使用这些工具,等做法在风险管理方面也是补充性的。


为了能够在业务流程中安全地使用生成式人工智能工具,在员工中建立意识被视为一项重要事项。在此背景下,在机构内部公告有关使用生成式人工智能工具的政策或指导,确保员工能够轻松访问这些文件,并及时告知政策更新非常重要。此外,针对员工开展有关生成式人工智能工具的一般使用目的、可能出现的风险以及需要注意的事项的信息交流和培训活动,将有助于建立对这些工具使用可能导致的技术和法律风险的认识。此类活动将支持员工以质疑和批判的眼光看待生成式人工智能工具产生的输出,并关注人类评估的重要性。此外,建立能够使员工分享使用生成式人工智能工具的经验以及他们所遇到问题的反馈机制,将使识别实践中可能出现的风险和改进领域成为可能。这种方法不仅有助于在必要时审查政策和实践,还将支持在机构内部发展旨在道德和负责任地使用生成式人工智能的企业文化。


在此背景下,总体评估时,在考虑潜在风险和法律义务的情况下,处理在工作场所使用生成式人工智能工具的方法非常重要。在此框架内,将生成式人工智能工具的使用置于道德和负责任的基础上,将有助于可持续地评估这些工具提供的速度和效率。在此方向上采用的综合方法,将在支持在工作场所可预见和负责任地使用生成式人工智能工具的同时,也将有助于防止因失控使用而可能产生的风险。


Nasuh Akar Mh. 1407. Sk. No:4 06520 Çankaya/Ankara


电话:0312 216 50 00


www.kvkk.gov.tr


发布日期:2026年2月


Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/193747