ISSN 1000-1239 CN 11-1777/TP

计算机研究与发展 ›› 2021, Vol. 58 ›› Issue (12): 2645-2659.doi: 10.7544/issn1000-1239.2021.20211022

所属专题: 2021可解释智能学习方法及其应用专题

• 人工智能 • 上一篇    下一篇

Dr.Deep:基于医疗特征上下文学习的患者健康状态可解释评估

马连韬1,2,3,张超贺1,2,焦贤锋1,2,王亚沙1,3,唐雯4,赵俊峰1,2   

  1. 1(高可信软件技术教育部重点实验室(北京大学) 北京 100871);2(北京大学信息科学技术学院 北京 100871);3(北京大学软件工程国家工程中心 北京 100871);4(北京大学第三医院肾内科 北京 100191) (malt@pku.edu.cn)
  • 出版日期: 2021-12-01
  • 基金资助: 
    基金项目:国家自然科学基金项目(62172011);北大百度基金资助项目(2020BD030);中华国际医学交流基金会项目(Z-2017-24-2037);中国博士后科学基金项目(2021TQ0011)

Dr.Deep: Interpretable Evaluation of Patient Health Status via Clinical Feature’s Context Learning

Ma Liantao1,2,3, Zhang Chaohe1,2, Jiao Xianfeng1,2, Wang Yasha1,3, Tang Wen4, Zhao Junfeng1,2   

  1. 1(Key Laboratory of High Confidence Software Technologies (Peking University), Ministry of Education, Beijing 100871);2(School of Electronics Engineering and Computer Science, Peking University, Beijing 100871);3(National Research Center of Software Engineering, Peking University, Beijing 100871);4(Division of Nephrology, Peking University Third Hospital, Beijing 100191)
  • Online: 2021-12-01
  • Supported by: 
    This work was supported by the National Natural Science Foundation of China (62172011), PKU-Baidu Fund (2020BD030), China International Medical Foundation (Z-2017-24-2037), and China Postdoctoral Science Foundation (2021TQ0011).

摘要: 深度学习是当前医疗多变量时序数据分析的主流方法.临床辅助决策关乎病人生命健康,因此深度模型需要抽取患者个性化表示,保证较高的分析、预测准确率;同时还需提供足够的可解释性,即能解释模型给出分析、预测结论的依据.而现有工作暂未能匹配医疗领域多变量时间序列数据的特性来进行个性化表示学习,同时源于深度学习的黑盒性质,现有模型大都可解释性不足,难以满足临床应用的需求.在此背景下,提出了基于医疗特征上下文学习的患者健康状态可解释评估方法Dr.Deep,将各变量的时序特征分别编码,利用多头去协同的自注意力机制,学习不同特征之间关联关系;提出了基于压缩激励机制的特征跳连编码,提升模型对最新病情变化的敏感性并针对不同患者情况分析特征重要性.实验表明:Dr.Deep在重症监护患者脓毒症预测、新冠肺炎重症患者出院时间预测等任务中相比业界方法性能提升,且可以针对不同患者的不同指标自适应学习其重要性作为可解释性的关键因素.同时设计并实现了基于医疗多变量时序数据分析的医生临床辅助系统,该系统建立病人的健康表示学习和预后预测模型并可视化患者病情进展以便医生分析.实验代码已开源于https://github.com/Accountable-Machine-Intelligence/Dr.Deep.所设计的智能医生可视化交互系统已发布于http://47.93.42.104/challenge/100049.

关键词: 电子病历数据, 临床预后, 智能医疗分析, 深度学习, 可解释性

Abstract: Deep-learning-based health status representation learning is a fundamental research problem in clinical prediction and has raised much research interest. Existing models have shown superior performance, but they fail to explore personal characteristics and provide fine-grained interpretability thoroughly. In this work, we develop a general health status

Key words: electronic medical record, clinical prognosis, healthcare analysis, deep learning, interpretability

中图分类号: