结果可解释性不足

三、结果可解释性不足

将深度学习应用于实际医疗系统的一个重要问题是医生在多大程度上接受这种黑箱特性,可解释性缺乏是深度学习的固有缺陷。量化算法的性能、提炼算法分类疾病的基本特征、揭示AI的本质对提高医生和患者的接受度至关重要。

尽管基于人工智能的模型在临床实践中的实施和部署仍然存在许多临床和技术挑战,但随着健康中国的提出,人工智能连续多年被写进政府工作报告,并且在国务院《新一代人工智能发展规划》和国家重点研发计划“数字诊疗装备研发”等支持下,“人工智能+医疗”被推上“快车道”。在眼科领域,眼底病患病人数随着人口老龄化正在不断增加,很多情况下,早期发现并及时干预可以预防失明。眼科诊断很大程度上依赖于影像学检查,基于深度学习算法的AI可以快速、无创地分析海量数据集的图像信息,并能识别、定位和量化疾病特征。因此,加快AI深入应用可能彻底改变现有的眼底病诊断流程和模式,而基于图像识别的医学辅助诊断系统有助于大规模人口疾病筛查,提高临床工作效率,为缓解我国眼科医生不足和医疗资源短缺提供了新途径。