机器学习(十七)Microsoft的InterpretM可解释性 机器学习模型
InterpretML 简介 适合可解释的模型 解释blackbox机器学习,可视化的展示“黑箱"机器学习 InterpretML是一个开源软件包,用于训练可解释的模型并解释黑盒系统。可解释性主要表现在以下几点: 模型调试 - 模型哪里出现了错误? 检测偏差 - 模型表现出哪些区分能力? 策略学习 - 模型是否满足某些规则要求? 高风险的应用 - 医疗保健,金融,司法等 从历史上看,最容易理解的模型不是很准确,最准确的模型是不可理解的。 Microsoft Research开发了一种称为可解释增强机Explainable Boosting Machine(EBM)的算法,该算法具有高精度和可懂度。 EBM使用现代机器学习技术,如装袋和助推,为传统GAM(Generalized Additive Models)注入新的活力。 这使它们像随机森林和梯度提升树一样准确,并且还增强了它们的可懂度和可编辑性。 image 除了EBM之外,InterpretML还支持LIME,SHAP,线性模型,部分依赖,决策树和规则列表等方法。该软件包可以轻松比较和对比模型,以找到最适合您需求的模型。 安装 Python 3.5+ | Linux, Mac OS X, Windows pip install numpy scipy pyscaffold pip install -U interpret