机器学习在金融、零售、工业预测性维护等众多场景已得到较为普遍的应用。然而,在具体业务场景中,机器学习仍然常被视为一个“黑盒”,如果不对模型进行合理的解释,业务人员就无法完全信任和理解模型的决策,使得模型的使用受到限制。
可解释机器学习的目的就在于让用户理解并信任我们的模型。在建模阶段,可解释能力可以辅助开发人员理解模型,进行模型的对比选择、优化和调整。在模型上线运行后,可解释能力可以用于向业务人员解释模型的内部机制,对模型的预测结果进行解释。
第四范式开源了一个自动机器学习的代码库AutoX,其中AutoX-Interpreter内置了丰富的机器学习可解释算法以及对应的使用案例。
主要功能包括: