Py学习  »  机器学习算法

IF=8.6,双一区Top!影像组+机器学习,也能用上SHAP解释?临床医生优选套路!

挑圈联靠 • 6 月前 • 149 次点击  

欢迎来看雪球讲套路、讲文献!雪球已经讲过好几次,SHAP解释(点击看详解)是一种有很大临床转化价值的套路。不过在其他场景的分析中,各位小伙伴可能体会还不深刻;这次影像组学+SHAP解释,强强联合,直白来说,就是算法告诉你怎么读片子!另外,研究团队还调查了医生在使用可解释模型前后的置信水平变化。想要乘上影像组+可解释机器学习(IML)的东风,0实验发双1区Top,设计课题时可以直接抄作业!接下来,就一起看看雪球的详细解读吧。


可解释机器学习(Explainable Machine Learning, XML)可以有效地更了解影响模型预测的因素,从而提高对机器学习(ML)决策的信任。本文总共使用了LIME、Anchor、SHAP共计三种解释方法,很难不惊艳审稿人了。

急需高质量SCI达成科研目标?

关键分析,重难点搞不定?

添加雪球回复“个性化”详细了解



添加雪球后回复“1

进群跟紧干货直播,更有好礼相送

不怕没时间,错过可以看回放!


Clinical impact of an explainable machine learning with amino acid PET imaging: application to the diagnosis of aggressive glioma

使用氨基酸 PET 成像进行可解释机器学习的临床影响:在侵袭性胶质瘤诊断中的应用


期刊:European Journal of Nuclear Medicine and Molecular Imaging

IF:8.6

发布时间:2025/01/17


 技术路线 


总设计

数据集划分:

使用75%/25%的比例将患者数据分为训练集(n=63)和测试集(n=22)。

模型训练:

使用从静态/动态参数PET图像中提取的影像组学特征训练集成机器学习模型,以分类病变的恶性程度。

可解释方法:

采用三种可解释机器学习方法——局部可解释模型无关解释(LIME)、Anchor和SHapley加性解释(SHAP)生成患者特定的解释。

医生评估:

18名来自8个机构的医生在两个阶段评估测试样本。第一阶段仅通过磁共振和静态/动态PET图像分析22个病例;第二阶段重新评估相同病例,但包含影像组学模型预测和解释。


影响获取与预处理

PET影像获取:

患者接受动态18F-FDOPA PET采集,使用两种不同的PET/CT系统,并进行空间重采样以实现各向同性体素。

感兴趣体积划分:

由经验丰富的核医学医生在静态图像上划分健康大脑、纹状体和肿瘤的感兴趣体积。

特征提取:

从静态肿瘤-背景比(TBR)和动态时间至峰值(TTP)参数图像中提取208个特征,包括一级统计、形态学和纹理特征。


模型训练与评估

特征选择:

去除零方差变量,使用层次聚类去除高度相关特征,并通过Wilcoxon评分选择最信息丰富的特征。

模型优化:

使用集成分类器,包括逻辑回归、线性支持向量机(SVM)、核化SVM、随机森林和梯度提升决策树。通过贝叶斯搜索优化超参数。

模型评估:

使用AUC、准确率、敏感性和特异性评估医生在有无影像组学模型支持下的诊断能力。


模型解释

可解释方法应用:

使用LIME、Anchor和SHAP为测试集中的每个患者提供视觉支持,帮助医生分析医学图像和常规临床信息。

医生反馈:

在第二阶段,医生在评估时还需判断每种XML方法是否有效地影响了他们的决策过程。


统计分析

主要目标分析:

使用混合效应逻辑回归模型评估医生在有无可解释影像组学模型帮助下的表现。

诊断指标:

计算AUC、准确率、敏感性和特异性,并使用500次自助采样计算95%置信区间。

次要目标分析:

通过Fleiss’s kappa评分评估医生间的一致性,并使用混合效应序数回归模型分析影像组学模型对医生置信度水平的影响。


结果

诊断准确性提升:

在第二阶段,医生的诊断准确性显著提高(0.775 vs. 0.717,p=0.007)。

医生信心增强:

影像组学模型显著增强了医生的置信度(p<0.001)。

 可解释方法的有效性:

Anchor和SHAP在75%和72%的病例中有效,优于LIME(p≤0.001)。


结论

研究结论:

可解释的影像组学模型在使用氨基酸PET扫描作为诊断支持以帮助医生识别胶质瘤恶性程度方面具有潜力。

未来方向:

需要进一步研究以评估可解释影像组学模型在其他更广泛分布的神经肿瘤学指征中的有效性,例如胶质瘤复发的检测。




 研究结果 


Fig 3 医生在第一、第二阶段对测试样本的诊断表现

通过(a) AUC (b)  准确性 (c) 敏感性 (d)特异性衡量


Fig 4 表示医生在可解释的影像组学模型的支持下更改最终决定的病例


标签“T”和“F”分别表示影像组学模型做出的真假预测。灰色复选符号和灰色十字符号分别代表这两个阶段的正确和错误决策。绿色勾号表示从第一阶段的错误决定变为第二阶段的正确决定,而红叉表示从第一阶段的正确决定转变为第二阶段的错误决定。


Fig 5 测试样本的置信分数的频率表示,使用不重叠堆积条形图,

范围从0(最低置信度)到5(最高置信度)。


Fig 6 XML方法在医生中对测试样本的有效性的频率表示



团队把模型解释结果放在了补充文件里。能看看吗?

帮大家找出来了。LIME和SHAP值都能够说明特征对预测结果的影响,正值表示对结果的积极影响,负值则为负面影响。SHAP结果图还提供了决策图,直观演示ML的决策过程。Anchor是一种图像识别中会用到的方法,考虑做影像组学+可解释ML研究的小伙伴可以直接做对标,三种方法齐上阵了。

LIME

Anchor

SHAP







做出一个“读片子好帮手”,在临床应用转化这一块可谓是拉满了。面对机器学习常见的“黑箱”情况,团队也贴心给出了可解释机器学习结果。


影像组学和转录组、蛋白组等组学搭配,冲击10+SCI,作为国自然基金申请的前期或代表作,都是很有说服力的。很多小伙伴的科室,有不少影像片子积累,但没有利用起来,还在唉声叹气发文困难。殊不知一鸣惊人的宝藏就在自己身边!


有些反常识的是,影像组学也有丰富的公共数据资源,因此可以加入的科室,不止影像科、肿瘤科等等。想把握好这个套路风向的信息差,尽早get一篇优质影像组学SCI,可以添加雪球,回复“个性化”咨询。


✅立足科研 守正创新

✅上下限跨度广

✅适合优化分析/进阶分段/丰富前期背景等需求

✅涵盖众多实用创新套路

✅量身定制,绝无量产,绝不敷衍


3月,对你而言,是研究生新学期的开始、毕业的临近,还是国自然标书修改提交的尾声?紧锣密鼓,雪球老师今天(3.5)晚八点推出全科室适配公式重量级主题。尤其建议关注影像组学的讲解!小小地反常识,看起来高大上的图像处理,有很多流程都是“预制算法”,选疾病,点一点鼠标就好了!参加方法及直播课件,请扫码添加雪球老师,回复“1”获取!

雪球的生信套路 每周周中更新

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/179721
 
149 次点击