“医生,我这肠道里的疙瘩到底是良性还是恶性啊?” 在消化内镜诊室里,类似的疑问每天都在上演。结直肠病变的早期诊断,不仅关乎患者是否需要手术,更直接影响生存期。如今,这一诊断难题迎来了新解法—— 吉林大学相关团队联合攻关,将深度学习与先进内镜技术-细胞内镜(endocytoscopy,EC)结合,开发出能精准区分结直肠病变的“AI 助手”,相关成果发表于国际顶刊《Nature Communications》(2025 年第 16 期),通讯作者为张楠,徐红和张志诚教授。
一、医生的“诊断烦恼”:错综复杂的微血管,经验不够难判断
提到肠镜检查,很多人会联想到“痛苦”,但对医生而言,更棘手的是 “看得清却辨不明”。传统内镜虽能发现肠道病变,但要区分 “非肿瘤性病变”“腺瘤(癌前病变)” 和 “浸润性癌”,往往需要依赖病变表面的微血管形态,然而,放大倍数不够、经验不足都会直接影响诊断准确性。
“以前的内镜,放大倍数最多100 倍左右,想看清微血管细节很困难;随着WEC联合窄带成像技术 (EC-NBI ),放大倍数能到520 倍,不需要染色,便可观察到高倍放大的微血管,诊断准确率提升不少。
” 张志诚教授解释,可新问题又来了:EC-NBI 的诊断高度依赖医生经验,新手医师的学习周期长,“有时候两张血管图看起来差不多,资深医生能看出细微差异,新手就容易判断错”。
更关键的是,此前临床用的AI 辅助诊断模型(CAD)多是 “二分类”—— 只能分清 “非肿瘤性” 和 “肿瘤性”,却没法进一步区分 “腺瘤” 和 “浸润性癌”。“腺瘤是癌前病变,及时切掉就行;浸润性癌可能需要外科手术,甚至化疗。这一步错了,对患者的治疗方案影响太大了。” 张志诚教授团队意识到,必须开发一款能 “三分类” 的 AI 模型,帮医生把好诊断 “精准关”。
二、AI 的 “学习之路”:48 万张内镜图当 “教材”,三阶段训练练出 “火眼金睛”
要让AI 学会 “看病变”,首先得给它足够多的 “教材”。团队回顾性收集了 2023 年 6 月至 2024 年 10 月期间,吉林大学第一医院和梅河口市中心医院的 813 例患者、1056 个病变的近 3.5 万张 EC-NBI 图像 —— 这些图像涵盖了不同大小、不同位置的结直肠病变,甚至包括新手最难判断的 “平坦型病变”。
“AI 的‘老师’是掩码自编码器(MAE),就像教孩子先认轮廓、再辨细节。” 团队成员介绍,AI 的训练分了三个阶段:
1. 第一阶段:“广撒网” 学基础:用48 万张不同类型的内镜图像(包括胃镜、结肠镜)给 AI “打基础”,让它学会从模糊图像中恢复细节 —— 比如故意挡住 75% 的图像,让 AI 猜被挡住的部分是什么,以此锻炼它的特征提取能力;
2. 第二阶段:“针对性” 练专长:专门用8615 张 EC-NBI 图像让 AI “刷题”,重点学习结直肠病变的微血管特征,相当于 “专科培训”;
3. 第三阶段:“精细化” 学分类:给AI 加了个 “分类器”,还融入了 “监督深度聚类” 技术 —— 就像老师告诉 AI“这类是腺瘤,血管特点是 XX;这类是癌,血管特点是 YY”,让同类病变在 AI 的 “脑海里” 更集中,不同病变更分明。
三、AI 的 “成绩单”:AUC 最高 0.969,还能帮新手医生 “涨经验”
经过多轮训练,这款AI 模型交出了亮眼的 “成绩单”:
1. 在图像水平:内部验证时,识别“浸润性癌” 的 AUC(诊断准确性指标,越接近 1 越准)高达 0.969,相当于 100 张癌性图像能准确判断 96.9 张;即使在不同医院的外部验证中,识别三类病变的 AUC 均保持在 0.8 以上,远超此前的二分类模型;
2. 在病变水平:通过“投票机制”(同一病变多张图像综合判断),AI 的准确性进一步提升,轮廓系数(特征区分度指标)从图像水平的 0.4724 提升到 0.6914,意味着它能更精准地给病变 “贴标签”;
3. 更惊喜的是人机协作效果:4 名不同经验的医生(从上往下分别是1年,3年,7年和9年经验的内镜医师)在AI 辅助下,诊断准确性得到了大幅提升,从以下雷达图中我们看到,年资越低的医生,AI对齐辅助作用越大。
人机对抗和人机协同性能对比
“我们用 Grad-CAM 技术看了 AI 的‘关注点’,发现它重点看的血管区域和临床医生的判断高度一致。” 张志诚教授说,这意味着 AI 不是 “瞎猜”,而是真的学会了 “按医学逻辑判断”,未来能成为医生的 “得力助手”,尤其是在基层医院,帮助解决 “经验不足” 的难题。
模型的关注点
全文总结
本文基于回顾性研究,开发了基于深度学习的窄带成像内镜计算机辅助诊断模型,用于结直肠病变(非肿瘤性病变、腺瘤、浸润性癌)的三分类预测。研究首先针对现有EC 诊断依赖医生经验、传统机器学习模型多为二分类且性能有限的问题,借鉴大规模语言模型的多阶段预训练策略,设计了包含三阶段的训练流程:第一阶段用近 48 万张公开内镜图像进行无监督通用预训练,第二阶段用未标记的 EC-NBI 数据继续无监督预训练以提升特征提取能力,第三阶段结合监督深度聚类和期望最大化方法进行监督微调。研究数据集来自吉林大学第一医院和梅河口市中心医院,通过图像级和病灶级评估显示,该模型在内部验证集中非肿瘤性病变、腺瘤、浸润性癌的 AUC 分别为 0.939、0.917、0.969,外部验证集 AUC 分别为 0.837、0.827、0.908,且病灶级性能因投票机制略高于图像级;与主流深度学习模型相比,该模型综合性能更优,在人机对比中准确率超过内镜医生,辅助医生时能提升其诊断表现。此外,通过 Grad-CAM 和 SHAP 分析增强模型可解释性,发现模型主要关注血管区域,不同病变类型对应不同血管特征,同时指出研究存在数据来源局限(仅东北两家医院)、无法区分浅表与深层黏膜下浸润癌、缺乏前瞻性验证等不足,未来需扩大多中心数据集并推进临床转化。
相关信息
论文标题:Development of deep learning-based narrow-band imaging endocytoscopic classification for predicting colorectal lesions from a retrospective study
链接:https://www.nature.com/articles/s41467-025-63812-5
发表期刊:Nature Communications(2025, 16)
第一作者:Jie Wang(汪杰),Mingqing Liu (刘明庆)
通讯作者:Nan Zhang (张楠),Hong Xu(徐红), Zhicheng Zhang(张志诚)
「BioMed科技」关注生物医药×化学材料交叉前沿研究进展!交流、合作,请添加杨主编微信!

https://www.nature.com/articles/s41467-025-63812-5来源:课题组供稿
声明:仅代表作者个人观点,作者水平有限,如有不科学之处,请在下方留言指正!