关于我们+
产品与服务+
解决方案+
客户案例+
AI创新中心+
投资者关系+
资源中心+
联系我们+
申请演示+
申请演示-
在可解释机器学习领域,获取可解释性最简单的方法是使用传统旳可解释统计模型,如线性回归逻辑回归、决策树模型等。然而,传统统计模型却往往有精度低的弊端,为了追求更高的精度,人们往往选用现在比较流行的一些机器学习模型,其中包含黑箱模型。黑箱模型精度很高,但可解释性差,人们无法知道为什么模型给出了这个结果,更不清楚如何判断结果的合理性。为了解决这个问题,科学家们提出一种与模型无关的可解释方法( model- agnostic interpretable)。它能够在模型训练完成后解析岀部分可解释性质,从而摆脱了模型本身的限制。