今天介绍美国华盛顿大学保罗·艾伦计算机科学与工程学院的Su-In Lee团队在nature mechine intelligence 2020的论文,该论文提出了一种基于博弈论沙普利值的TreeExplainer方法,用于从局部到全局的树模型解释性研究。

背景

随机森林、决策树和梯度增强树等基于树的机器学习模型是目前比较流行的非线性预测模型,基于树的模型在金融、医药、生物、广告、供应链管理、制造、公共卫生等多个领域有着重要的应用。并且像是医药生物等领域对于模型除准确度外更关心其可解释性,也就是说研究人员希望得出预测模型是根据什么做出的判断,如何得到预测结果,目前对树模型预测结果的解释研究相对较少。华盛顿大学的Lee团队基于博弈论里的Shapely Value提出了TreeExplainer方法,展示了如何结合许多高质量的局部解释来理解全局模型,也就是从每一个样例的解释中去理解模型,从而得到模型做出预测的机理。

过往的预测模型是一个黑箱操作,尽管在树的全局解释方法方面存在丰富的历史,但对局部的解释关注甚少,使用TreeExplainer方法提升了模型的可解释性,可以清楚的知道模型做出判断的依据。

树模型的局部解释

对于当前树模型的局部解释方法,Lee团队提到了以下三种:

一是简单地报告决策路径,但这对于大多数模型来说是没有帮助的,特别是对多树集合模型。

二是使用为每个输入特征分配信用的启发式方法(由Saabas提出),该启发式信用分配的行为目前还没有被仔细分析,然而该方法对基于树深度改变特征的影响存在严重的偏差,这种偏差会导致Saabas value值的不一致性。

三是应用模型不可知的各种各样方法需要为每个解释重复执行模型,由于模型不可知的方法依赖于对任意函数的事后建模,因此,可能会很慢并且会受到采样变化的影响。

Lee团队提出的TreeExplainer方法能够根据博弈论中期望的性质,方便地给出最优的局部解释。TreeExplainer在基于经典博弈论Shapley value值的模型不可知论工作的基础上,将理论与实际联系起来。TreeExplainer有三个显著的改进:

(1)准确性:基于精确Shapley value值,提出了多项式时间计算局部解释的算法,为局部解释提供了局部精度和一致性的理论保障。

(2)扩展性:扩展局部解释以直接捕获功能交互,为每个输入特征指定一个数字的局部解释虽然非常直观,但不能直接表示交互效果,文中基于泛化的Shapley value值提出测量局部交互效应的理论基础,对模型的行为提供了有价值的见解。

(3)整体性:结合许多局部解释整合解释模型的全局行为,保持原始模型的局部信度,产生模型整体行为的详细和准确的表示。

文中指出,在表格式数据集上,基于树的模型始终优于标准的深度模型,在表格式数据集中,特征是单独有意义的,并且缺乏强的多尺度时空结构,文中三个医疗数据集都是表格式的数据集,梯度增强树在三个数据集上都优于纯深度学习和线性回归模型。

相较于前三种列举出来的局部解释方法,使用TreeExplainer方法计算Shapley value在众多方面上提升了局部解释的效果。

  • 公平的特征信用分配:相比于Saabas value方法,Shapley value对每一个特征公平地赋值,而不会受到其所在节点的深度的影响,从而保证了一致性。

  • 无估计差异:TreeExplainer的精确解释消除了检查收敛性和在估计中接受一定数量噪声的额外负担。

  • 强大的benchmark性能:设计了15种评判指标,并将这些指标应用于三种不同模型类型和三种数据集上的十种不同解释方法,TreeExplainer显示了一致性的性能提升。

  • 与人类直觉判断相一致:基于Shaple value值的解释方法在所有测试场景中都符合人类的直觉。

TreeExplainer还扩展了局部解释来测量相互作用效果。虽然特征之间的相互作用效应可以反映在许多局部解释的全局模式中,但在每个局部解释中它们与主要效应的区别都消失了。

上图左边为全局模式,右边为Age与blood pressure的相互作用,可以看到某些相互作用在全局模式中已经消失了。

结合局部解释的全局理解

SHAP摘要图

以前的一些方法对于模型可解释性的探讨往往关注于使用简单的全局近似,寻找新的可解释特征或量化深度网络中特定内部节点的影响。Lee团队的TreeExplainer方法将数据集中的多个局部解释进行结合,从而达到对模型判断机理的全局理解,并能够:(1)避免不一致问题;(2)提高检测数据集中真实特征相关性的能力;(3)构建SHAP(Shapley additive explanation)摘要图,简洁地显示了特征效果、普遍性和方向,避免了把特征效果和普遍性混为一谈,从而揭示了罕见的高幅值效果。

上图是一个SHAP摘要图,它可以揭示特征影响效果的方向,比如上图右边部分显示出了男性比女性有着更高的死亡风险。

SHAP依赖图

SHAP依赖图比起传统的部分依赖图能够提供更丰富的信息,它展示了特征值是如何影响的预测值。

在死亡率模型中,SHAP依赖图再现了血压收缩压的标准风险拐点,同时也强调了血压对不同年龄人群死亡风险的影响是不同的。对于慢性肾脏疾病模型,依赖图再次清楚地揭示了收缩压的风险拐点。正确建模血压风险同时保持可解释性是至关重要的,因为血压控制在部分特定患慢性肾脏疾病人群中能够缓解病变并降低患心血管疾病的风险。

SHAP交互值

使用SHAP交互值,可以将一个特性对特定样本的影响分解为与其他特性的交互影响。

在死亡率数据集中,绘制年龄和性别之间的SHAP相互作用值显示了男性和女性一生中相对风险的明显变化。男性和女性之间最大的风险差异出现在60岁;男性患病风险的增加可能是由于他们的心血管疾病死亡率高于接近这个年龄的女性。如果没有SHAP的相互作用值,这种模式就不能被清楚地捕捉到。

在慢性肾病模型中,Lee团队发现了一个有趣的相互作用,当高血尿素氮伴随高白细胞计数时,模型更关注高白细胞计数。这支持了炎症可能与高血尿素氮相互作用加速肾功能下降的观点。

模型监视

局部模型监控揭示了部署的机器学习模型以前无法发现的问题。通过使用TreeExplainer来解释模型的loss,而不是模型的预测,可以提高监视已部署模型的能力。Lee团队证明了本地模型监控有助于调试模型部署,并通过分解模型输入特征中的损失来直接识别有问题的特征。

Lee团队使用医院手续流程持续时间数据集模拟了一个模型部署,该数据集使用第一年的数据进行训练,后三年的数据用于部署。Lee团队做了三个示例。

(1) 在部署过程中,Lee团队故意交换了手术室6号房间和13号房间的标签,以模拟典型的特征管道错误。模型预测的总体损失没有显示出错,而6号房间的SHAP监测图清楚地标识了标签错误。

(2) 下图显示了部署检测开始后不久,总体麻醉特征的误差出现了一个峰值。此峰值对应于受此前未发现的临时电子病历配置问题影响的数据子集。

(3) 下图显示了特征随时间变化而不是处理错误的示例。在训练期间和部署的早期,使用“房颤”特征可以降低损失;然而,随着时间的流逝,该特征将逐渐变得不可用,并最终使模型退化。Lee团队发现这种退化是由技术和人员配置变化驱动的房颤消融过程持续时间的显著变化引起的。

解释嵌入

局部解释嵌入揭示了与慢性肾脏疾病的死亡风险和辅助诊断指标相关的人群亚群。通过对数据集中的每一个样本进行局部解释嵌入,映射到一个新的“解释空间”,在嵌入空间进行聚类将产生一个有监督的聚类,其中样本根据其解释而分组。

使用死亡率模型运行分级监督聚类的结果是,许多人群由于相似的原因而共享相似的死亡风险。

总结

基于树的机器学习模型的局部解释的潜在影响是广泛存在的。模型解释可以帮助满足透明性需求,促进人工智能协作,并帮助模型开发、调试和监视。

参考资料

Scott M. Lundberg, et al. From local explanations to global understanding with explainable AI for trees. Nat Mach Intell 2, 56–67 (2020).

数据集及代码

死亡率数据集:https://github.com/suinleelab/treeexplainer-study

TreeExplainer代码:https://github.com/suinleelab/treeexplainer-study

Nat. Mach. Intell.|从局部解释到全局理解的树模型相关推荐

  1. 专家点评Nat Mach Intell | 刘琦团队开发基于元学习的AI模型进行抗原-TCR亲和力识别及肿瘤新生抗原免疫原性预测...

    T细胞受体(T-cell receptor, TCR)是获得性免疫过程中的关键分子.TCR经过特定的基因重组和进化筛选,具备高度的多样性及特异性.MHC-多肽复合物与TCR亲和力的计算识别(pMHC- ...

  2. Nat. Mach. Intell. | 深度神经网络中的捷径学习

    今天给大家介绍来自德国蒂宾根大学的Robert Geirhos和加拿大多伦多大学的Claudio Michaelis等人发表在Nature Machine Intelligence的文章"S ...

  3. Nat. Mach. Intell. | 集成深度学习在生物信息学中的发展与展望

    本期给大家介绍悉尼大学Jean Yang教授课题组发表在Nature machine intelligence的文章"Ensemble deep learning in bioinforma ...

  4. Nat.Mach.Intell.|如何改进错义突变致病性预测?使用图注意神经网络试试

    编译 | 杨慧丹 审稿 | 赵宸 本文介绍一篇来自哥伦比亚大学Yufeng Shen的研究团队最近发表在Nature Machine intelligence期刊上的一项研究.作者提出了一种基于图注意 ...

  5. Nat. Mach. Intell. | 可解释性人工智能(xAI)遇上药物发现

    今天给大家介绍瑞士苏黎世联邦理工学院化学与应用生物科学系 Gisbert Schneider等人在Nature Machine Intelligence上发表的文章"Drug discove ...

  6. Nat.Mach.Intell.| DEcode:深度学习解读差异基因表达原理

    今天给大家介绍拉什大学的Shinya Tasaki 等人在Nature Machine Intelligence上发表的文章"Deep learning decodes the princi ...

  7. Nat. Mach. Intell. | 华科同济医学院剑桥联手推出新冠预测模型!

    今天给大家介绍华中科技大学同济医学院及剑桥大学联合发表在Nature Machine Intelligence的一篇文章.文章中作者提出了一个基于XGBoost机器学习的模型,可以提前10天以上预测患 ...

  8. Nat. Mach. Intell. | 基于深度学习预测DNA甲基化位点

    研究人员开发了一种预测DNA甲基化位点的机器学习算法可以帮助识别致病机制.该论文2020年8月3日发表在"Nature Machine Intelligence"上. 研究人员通过 ...

  9. Nat. Mach. Intell. | 生物医学关系抽取的机器学习新框架

    今天给大家介绍的是清华大学曾坚阳教授课题组在Nature Machine Intelligence杂志上发表的一篇关于生物医学关系抽取的文章.在文中,作者提出了一种从大规模文献库中自动提取生物医学关系 ...

最新文章

  1. java操作大文件复制
  2. SAP顾问,市场的双重需求
  3. oracle locked timed,Oracle里面的用户smsdb无法登录 LOCKED(TIMED)
  4. 为什么要学python语言、学完有什么好处_学编程为什么首选Python?学完Python的优势有哪些?...
  5. Linux 启动、关闭、重启网络服务的两种方式
  6. 理想汽车市值逼近蔚来,王兴曾多次在饭否为其站台
  7. OOAD实践之路——真实案例解析OO理论与实践(五、需求分析之前的故事)
  8. HDU2023 求平均成绩【入门】
  9. 结构化CSS设计思维
  10. java 实现 excel 函数_Excel函数在Java中的实现 Finv
  11. 大三学生前端实习经验分享
  12. 软件测试中英文术语对照表
  13. Internet Explorer无法打开站点,已终止操作
  14. 【xposed】虚拟机安装Magisk和LSPoesd
  15. 联想ghost重装系统_联想笔记本重装系统图文教程
  16. echarts在中国地图上绘制各省指标
  17. Ribbon负载均衡及Feign消费者调用服务
  18. 木偶然-2010.7.17
  19. 腾讯模拟器国际服服务器维护中,腾讯模拟器能不能玩原神
  20. 整合篇:零基础学习与使用ElasticSearch

热门文章

  1. C语言嵌入式系统编程修炼之道——性能优化篇
  2. 聊聊 Kafka 那点破事!
  3. 一篇文章搞懂Filebeat
  4. 在阿里当PM都需要做什么?
  5. 说时间不够用,CTO怒了!让我学习:GTD时间管理,番茄工作法,三八理论
  6. 【高并发】ThreadLocal学会了这些,你也能和面试官扯皮了!
  7. 看完这篇 JVM 垃圾回收,和面试官扯皮没问题了
  8. 程序员的工资VS普通人的工资...
  9. 年入50万,程序员众生相
  10. 用Leangoo敏捷开发工具如何管理用户故事?