看过本文的还看了

相关文献

该作者的其他文献

文献详情 >***:基于医疗特征上下文学习的患者健康状态可解释评估 收藏
***:基于医疗特征上下文学习的患者健康状态可解释评估

***:基于医疗特征上下文学习的患者健康状态可解释评估

作     者:马连韬 张超贺 焦贤锋 王亚沙 唐雯 赵俊峰 Ma Liantao;Zhang Chaohe;Jiao Xianfeng;Wang Yasha;Tang Wen;Zhao Junfeng

作者机构:高可信软件技术教育部重点实验室(北京大学)北京100871 北京大学信息科学技术学院北京100871 北京大学软件工程国家工程中心北京100871 北京大学第三医院肾内科北京100191 

基  金:国家自然科学基金项目(62172011) 北大百度基金资助项目(2020BD030) 中华国际医学交流基金会项目(Z-2017-24-2037) 中国博士后科学基金项目(2021TQ0011) 

出 版 物:《计算机研究与发展》 (Journal of Computer Research and Development)

年 卷 期:2021年第58卷第12期

页      码:2645-2659页

摘      要:深度学习是当前医疗多变量时序数据分析的主流方法.临床辅助决策关乎病人生命健康,因此深度模型需要抽取患者个性化表示,保证较高的分析、预测准确率;同时还需提供足够的可解释性,即能解释模型给出分析、预测结论的依据.而现有工作暂未能匹配医疗领域多变量时间序列数据的特性来进行个性化表示学习,同时源于深度学习的黑盒性质,现有模型大都可解释性不足,难以满足临床应用的需求.在此背景下,提出了基于医疗特征上下文学习的患者健康状态可解释评估方法***,将各变量的时序特征分别编码,利用多头去协同的自注意力机制,学习不同特征之间关联关系;提出了基于压缩激励机制的特征跳连编码,提升模型对最新病情变化的敏感性并针对不同患者情况分析特征重要性.实验表明:***在重症监护患者脓毒症预测、新冠肺炎重症患者出院时间预测等任务中相比业界方法性能提升,且可以针对不同患者的不同指标自适应学习其重要性作为可解释性的关键因素.同时设计并实现了基于医疗多变量时序数据分析的医生临床辅助系统,该系统建立病人的健康表示学习和预后预测模型并可视化患者病情进展以便医生分析.实验代码已开源于https:*** Accountable-Machine-Intelligence ***.所设计的智能医生可视化交互系统已发布于http:47.93.42.104 challenge 100049.

主 题 词:电子病历数据 临床预后 智能医疗分析 深度学习 可解释性 

学科分类:0831[工学-公安技术类] 0710[理学-生物科学类] 12[管理学] 1201[管理学-管理科学与工程类] 1002[医学-临床医学类] 1001[医学-基础医学] 081104[081104] 08[工学] 0805[工学-能源动力学] 0835[0835] 0811[工学-水利类] 0812[工学-测绘类] 

核心收录:

D O I:10.7544/issn1000-1239.2021.20211022

馆 藏 号:203106574...

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分