社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  机器学习算法

《对抗性机器学习和网络安全:风险、挑战和法律影响》美智库2023最新35页报告

专知智能防务 • 2 年前 • 260 次点击  

2022年7月,乔治敦大学安全与新兴技术中心(CSET)和斯坦福大学网络政策中心的地缘政治、技术和治理项目召开了一次专家研讨会,研究人工智能系统的漏洞与更传统类型的软件漏洞之间的关系。讨论的主题包括:人工智能漏洞在多大程度上可以根据标准网络安全程序进行处理,目前阻碍准确分享人工智能漏洞信息的障碍,与人工智能系统的对抗性攻击有关的法律问题,以及政府支持可以改善人工智能漏洞管理和缓解的潜在领域。
参加研讨会的人员包括担任网络安全和人工智能红队角色的行业代表;具有进行对抗性机器学习研究经验的学者;网络安全监管、人工智能责任和计算机相关刑法方面的法律专家;以及负有重要人工智能监督职责的政府代表。
本报告旨在完成两件事。首先,它提供了一个关于人工智能漏洞的高层次讨论,包括它们与其他类型的漏洞不相似的方式,以及关于人工智能漏洞的信息共享和法律监督的当前状况。其次,它试图阐明研讨会上大多数与会者所认可的广泛建议。这些建议分为四个高层次的主题,具体内容如下:
1.主题:为人工智能漏洞扩展传统的网络安全
1.1. 建议:构建或部署人工智能模型的组织应使用一个风险管理框架,解决整个人工智能系统生命周期的安全问题。
1.2. 建议:恶意机器学习研究人员、网络安全从业人员和人工智能组织应积极尝试扩展现有的网络安全流程,以涵盖人工智能漏洞。
1.3. 建议:对抗性机器学习领域的研究人员和从业人员应与处理人工智能偏见和稳健性的人员以及其他具有相关专业知识的社区进行磋商。
2.主题:改善信息共享和组织安全心态
2.1. 建议:部署人工智能系统的组织应追求信息共享安排,以促进对威胁的理解。
2.2. 建议:人工智能部署者应强调建立一种安全文化,在产品生命周期的每个阶段都嵌入人工智能开发中。
2.3. 建议:高风险人工智能系统的开发者和部署者必须将透明度放在首位。
3.主题:澄清人工智能漏洞的法律地位
3.1. 建议:拥有网络安全权力的美国政府机构应澄清基于人工智能的安全问题如何适应其监管结构。
3.2. 建议:目前没有必要修改反黑客法来专门解决攻击人工智能系统的问题。
4.主题:支持有效研究以提高人工智能安全
4.1. 建议:攻击性机器学习研究人员和网络安全从业人员应寻求比过去更紧密的合作。
4.2. 建议:促进人工智能研究的公共努力应更多地强调人工智能安全,包括通过资助可促进更安全的人工智能开发的开源工具。
4.3. 建议:政府政策制定者应该超越标准的制定,提供测试平台或促成审计以评估人工智能模型的安全性。


专知便捷查看

便捷下载,请关注专知智能防务公众号(点击上方关注)

  • 点击“发消息” 回复 AML35 ” 就可以获取《《对抗性机器学习和网络安全:风险、挑战和法律影响》美智库2023最新35页报告》专知下载链接


  • 欢迎微信扫一扫加专知助手,咨询使用专知,定制服务合作


专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取70000+AI(AI与军事、医药、公安等)主题干货知识资料!

点击“阅读原文”,了解使用专知,查看获取100000+AI主题知识资料

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/153778
 
260 次点击