Py学习  »  机器学习算法

【CHIL2021】可解释机器学习进展,附74页ppt与视频

专知 • 2 年前 • 242 次点击  


随着机器学习黑盒越来越多地部署在医疗保健和刑事司法等领域,人们越来越重视构建工具和技术,以事后方式解释这些黑盒。这些解释正被领域专家用来诊断系统性错误和黑盒的潜在偏见。然而,最近的研究揭示了流行的事后解释技术的弱点。在本教程中,我将简要概述事后解释方法,特别强调特征归因方法,如LIME和SHAP。然后,我将讨论最近的研究,这些研究表明,这些方法是脆弱的,不稳定的,并容易受到各种对抗性攻击。最后,我将提出两种解决方案,以解决这些方法的一些漏洞: (I) 一个基于对抗性训练的通用框架,旨在使事后解释更稳定,更鲁棒,以应对底层数据的变化,(ii) 贝叶斯框架,捕获与事后解释相关的不确定性,从而允许我们生成满足用户指定的置信水平的可靠解释。总的来说,本教程将提供可解释机器学习这一新兴领域的最新技术的概述。


https://www.chilconference.org/tutorial_T04.html



专知便捷查看

便捷下载,请关注专知 公众号(点击上方蓝色专知关注)

  • 后台回复“EML74” 就可以获取【CHIL2021】可解释机器学习进展,附74页ppt与视频》专知下载链接

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!


欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“阅读原文 ”,了解使用专知,查看获取5000+AI主题知识资源
Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/119441
 
242 次点击