食管癌严重威胁国民身体健康,破解这一难题的关键是早诊早治,内镜筛查为早期诊断最重要的手段。人工智能(artificial intelligence,AI)技术的快速发展使得其在消化内镜领域的应用及研究日益增加,并有望成为内镜医师早期诊断食管癌的得力助手。目前,整合多种内镜模式、具备多种诊断功能的多模态、多功能AI系统在浅表食管鳞状细胞癌及癌前病变中的应用取得不错的成果,本文将对其研究进展进行综述,并对其未来发展方向进行展望。
引用本文: 严萍, 袁湘蕾, 张琼英, 胡兵. 人工智能在浅表食管鳞状细胞癌及癌前病变内镜诊断中的应用进展. 中国胸心血管外科临床杂志, 2022, 29(9): 1217-1222. doi: 10.7507/1007-4848.202203047 复制
食管癌是常见的消化道恶性肿瘤,我国2016年发布的恶性肿瘤发病和死亡报告[1]显示,其发病率居恶性肿瘤发病的第6位、死亡率居第4位。2020年我国食管癌发病例数和死亡例数约占全世界一半,癌症负担是世界平均水平的2倍,严重威胁人民生活健康[2]。虽然近年来食管鳞状细胞癌(鳞癌)发病率有下降趋势,但其仍是我国食管癌的主要病理类型[3]。进展期食管鳞癌患者经手术等综合治疗后5年生存率不足20%,而浅表食管鳞癌及癌前病变微创治疗后5年生存率可达90%以上[4-5]。因此,早发现、早诊断和早治疗是降低食管癌患者死亡率并提高生存率的关键。
内镜筛查是早期发现食管鳞癌的重要方式,但病变检出率受患者配合情况、内镜医师操作及诊断水平等多因素影响。据文献[6]报道,我国浅表食管鳞癌及癌前病变的检出率不足10%,远远低于发达国家。因此,当务之急是探究如何充分利用有限的医疗资源,高效地提高我国食管鳞癌的早诊率。
近年来,基于卷积神经网络(convolutional neural network,CNN)的人工智能(artificial intelligence,AI)技术为解决这一问题提供了新的思路。AI通过学习大量内镜图像自动提取疾病特征,并进行特征筛选,从而达到模仿人类认知水平,辅助医生快速、高效地诊断疾病。目前,AI已在浅表食管鳞癌及癌前病变诊断领域取得了可喜的成绩,有望应用到临床中。本文就AI在浅表食管鳞癌及癌前病变内镜诊断中的应用和进展进行综述,并对其未来发展方向做出展望。
1 人工智能简介
AI的概念在20世纪50年代首次被提及,是通过对人的意识、思维信息过程和智能行为进行模拟、延伸和拓展,以解决较复杂的问题[7]。实现AI的一种方式则是机器学习,即计算机通过学习一批相对应的输入输出数据,自动地从这些数据中总结出两者的内在关系和规律,并得出某种预测模型,进而利用该模型对未知数据进行预测[7]。2016年谷歌公司基于深度学习开发的AlphaGo横空出世,在全球范围内引起了广泛的关注。人工神经网络是现代深度学习算法完成特征识别最常见的方式之一,旨在模拟人脑神经系统的结构和功能,实现复杂信息的加工、处理、存储、搜索和推理等任务[8]。CNN是由卷积层和池化层组成,通过卷积层与池化层的叠加实现对输入数据的特征提取,最后连接全连接层实现分类。CNN的权值共享网络结构使之更类似于生物神经网络,减少了权值的数量,降低了网络模型的复杂度。CNN在图像处理上有众多优势,如能自行提取图像特征包括颜色、纹理、形状及图像的拓扑结构[9],因此CNN是医学图像识别领域常用的深度学习算法。
2 人工智能用于内镜诊断浅表食管鳞癌及癌前病变
2.1 人工智能辅助浅表食管鳞癌及癌前病变检出
AI用于内镜诊断浅表食管鳞癌及癌前病变是通过使用专家标注的图像或视频数据进行模型训练。临床上常用的检测食管鳞癌的内镜技术包括白光内镜(white-light endoscopy,WLE)、窄带光谱成像技术(narrow-band imaging,NBI)、蓝激光成像技术(blue laser imaging,BLI)、碘染色和放大内镜(magnification endoscopy,ME)。
WLE检查是筛查食管病变最常用的方法,研究者相继成功开发了WLE-AI系统用于检测浅表食管鳞癌。Cai等[10]收集了2 428张和187张WLE图像分别构建训练集和测试集,发现AI系统的诊断性能与专家水平相当。在AI系统的辅助下,各级年资医师的诊断能力均有所提升,突出了AI系统的辅助潜能。Tang等[11]开发的AI系统基于4 002张WLE图像训练而成,使用1 033张内部和外部来源的内镜图像和14段内镜视频进行了验证。该系统不仅在内部图像验证集中检测浅表食管鳞癌的敏感度达97.9%,在外部图像测试集中也取得了相媲美的诊断性能,而且准确识别出13段视频中的浅表食管鳞癌病灶。这些结果显示出了该系统具备良好的外推适应能力和临床实际应用可能性。Li等[12]利用4 735张食管NBI内镜图像研发了一个检测浅表食管鳞癌的NBI-AI系统,并使用316张测试图像比较该系统与Cai等[9]的WLE-AI系统的性能。研究结果显示,虽然NBI-AI系统的准确性和特异性优于WLE-AI系统,但其敏感性低。如果联合使用NBI-AI系统和WLE-AI系统,内镜医师的诊断水平可显著提高。因此,相比单一内镜模式的AI系统,整合多种内镜技术的多模态AI系统具有更大的临床应用价值。
Horie等[13]于2019年首次报道了整合WLE和NBI的双模态AI诊断浅表食管癌系统。该系统使用SSD(Single Shot MultiBox Detector)算法训练而成。通过对1 118张图像进行测试分析,可准确识别出98%的浅表食管癌病例,其中7个是<10 mm的早期病变。2020年Ohmori等[14]首次报道了整合WLE、NBI、BLI和ME的多模态AI诊断浅表食管癌系统。该系统基于SSD算法,利用22 562张内镜图像构建而成。使用255张WLE图片、268张非放大NBI和非放大BLI图片以及204张放大NBI和放大BLI图片测试系统,结果显示AI系统仅需22 s即可诊断所有图像,AI系统在非ME的NBI/BLI图片中的敏感度高达100%,ME图片中的敏感度为98%,WLE图片中的敏感度为90%,均与经验丰富的内镜医师的诊断水平相当。2021年,Yang等[15]报道了集WLE、BLI、碘染色和ME四种模态的AI诊断浅表食管鳞癌系统,该系统由2个不同的神经网络组成以分别识别非ME图像和ME图像,分别采用YOLO V3算法和ResNet V2算法构建而成。使用10 988张和2 309张图像进行训练和测试系统,发现低年资医生的诊断水平可以得到显著提升。以上两个研究均是单中心研究,缺乏多中心大样本数据进行验证。2022年Yuan等[16]报道了整合WLE、NBI、碘染色和ME的基于YOLO V3算法的多模态AI诊断浅表食管鳞癌及癌前病变系统。该系统由45 770张图片训练而成,使用6 075张与训练集同源的图片测试AI系统,还使用来自其它4家医院的2 088张图片进一步测试系统。研究结果显示,对于WLE图片中局限于上皮层的浅表食管鳞癌,AI系统比经验丰富的内镜医师更敏感(90.8% vs. 82.5%)。Ikenoyama等[17]使用6 634张WLE和NBI图片研发了无需碘染色即可识别斑驳食管的AI系统,从而识别食管癌高危人群,减少碘染色给患者带来的不适。通过使用667张图像进行测试,发现AI系统识别斑驳食管的敏感性明显高于经验丰富的内镜医师。
虽然辅助诊断浅表食管鳞癌及癌前病变的AI系统从单一内镜模式到多种内镜模式的发展已取得了惊人的进步,但仅基于静止图片的研究难以满足临床实践需求,仍需动态视频构建和验证。Fukuda等[18]于2020年首次报道了使用视频数据构建AI诊断浅表食管鳞癌系统。该系统采用SSD算法,由17 274张视频帧图像训练而成。用144个视频将AI系统的诊断性能与专家进行比较,发现AI系统在识别可疑病变及区别癌与非癌病变方面的敏感度和准确率均高于专家。2021年Shiroma等[19]收集了8 428张WLE和NBI图像开发了一个辅助诊断浅表食管鳞癌AI系统,并使用64个慢速视频和80个高速视频测试了该系统。研究结果显示,该系统1 s可识别30帧图像。Waki等[20]使用17 336张浅表食管鳞癌和1 461 张非癌和正常食管的NBI和BLI图像,开发了一个辅助检测浅表食管鳞癌的AI系统,并在视频模拟下评估其性能。在NBI/BLI上,AI系统的诊断敏感度为85.7%,明显高于内镜医生的敏感度(75.0%)。在WLI上,AI系统检测敏感度为77.8%。
细胞内镜是一种新型的放大内镜,可通过使用亚甲基蓝等化合物进行食管黏膜染色,实现实时观察体内表面上皮细胞。2019年Kumagai等[21]基于GoogLeNet算法构建了一个细胞内镜下识别浅表食管鳞癌的AI系统。利用4 715张食管细胞内镜图像训练该系统,用1 520张图像进行测试。AI系统的总体敏感度及准确率分别为92.6%和90.9%,该系统有望辅助内镜医师基于细胞内镜图像诊断浅表食管鳞癌。
2.2 人工智能辅助浅表食管鳞癌及癌前病变深度和分型预测
食管癌的浸润深度与淋巴结转移风险密切相关,也是影响患者治疗决策选择的重要因素。局限于上皮层(epithelium,EP)或固有层(lamina propria,LPM)病变的淋巴结转移风险几乎为0%,但浸润至黏膜肌层(muscularis mucosa,MM)、黏膜下浅层(SM1)、黏膜下深层(SM2)或更深层病变的淋巴结转移风险分别增加至8%~15%、11%~53%和30%~54%[22-25]。食管EP-LPM病变是内镜下治疗的绝对适应证,MM-SM1病变则是相对适应证,而SM2以深的病变则需手术或放射治疗和化学治疗[26]。因此,准确判断食管癌浸润深度对于避免过度治疗、提高患者生活质量至关重要。
Tokai 等[27]使用了1 751张包含WLE和NBI两种内镜模式的食管鳞癌图像,采用SSD算法,开发了可区分EP-SM1病变和SM2~3病变的AI系统。通过291张WLE和NBI 图像进行测试,AI系统判断浸润深度的总体准确性为80.9%,其中EP-SM1病变的诊断敏感度为91.4%,SM2~3病变的诊断准确率为73.3%。明显高于参与人机对照试验的12名内镜医师(共纳入了13名医生)。WLE和NBI是临床中最常用的内镜检查模式,但有研究表明再联合放大内镜可获得更高的判断病变浸润深度的准确性。Nakagawa 等[28]开发了一个可在非放大和放大内镜模式下区分EP-SM1病变和SM2~3病变的AI系统,该系统由8 660张非放大和5 678张放大的WLE、NBI和BLI图像训练而成,仅需29 s即可准确诊断出405张非放大和509张放大图像上的病灶浸润深度。AI系统在非放大和放大模式下诊断EP-SM1病变的准确率分别为92.9%和89.7%,诊断SM2~3病变的准确率分别为90.3%和92.3%,诊断性能与16名经验丰富的内镜医师水平相当。Wang等[29]研发的AI系统实现了可在WLE和NBI图像上准确区分食管低级别上皮内瘤变、高级别上皮内瘤变和鳞癌病变。该AI系统基于936张WLE和NBI图像,使用SSD算法构建而成。通过对264张图像进行测试,AI系统在病变检测和病变浸润深度预测方面具有良好的诊断性能,其对低级别上皮内瘤变、高级别上皮内瘤变和鳞癌病变的敏感度分别为83.4%、87.2%和98.9%。但上述研究仅限于使用高质量的静止图像进行系统的训练及验证,而多元化的内镜视频数据则能更利于客观地评估AI系统的性能。Shimamoto 等[30]于2020年首次利用内镜视频开发了可区分食管EP-SM1病变和SM2~3病变的AI系统。从909例病理证实食管浅表鳞癌的视频和静止图像中提取了23 977张图像作为训练集,从102个非ME和ME视频中提取WLE图像和NBI/BLI图像作为测试集。该AI系统在非放大和放大模式下诊断SM2~3病变的准确率分别为87.3%和89.2%,高于具有长期经验的14名内镜专家(84.7% 和 84.4%)。
随着内镜技术的日益发展,日本学者[31-32]发现使用放大内镜观察食管鳞状上皮乳头内毛细血管袢(intrapapillary capillary loops,IPCL)的形态学变化可初步判断肿瘤浸润深度。日本食管学会提出的简化IPCL分型是目前临床常用的分型方法。在该分型中,A型血管提示正常食管黏膜或低级别上皮内瘤变,B1型、B2型和B3型血管分别提示EP-LPM病变、MM-SM1病变和SM2以深病变。内镜医生诊断IPCL分型需具有足够的经验且存在一定的主观性,因此,AI辅助诊断是促进医生同质化的有效手段。 2019年和2021年Everson 等[33-34]相继报道了一个二分类诊断IPCL的AI系统。该系统可准确区分A型血管和B型血管,然而因其不能对B型血管的亚型进行分类,在诊断浸润深度方面作用有限。但上述报道为AI辅助诊断IPCL分型提供了理论依据。我国学者Zhao等[35]首次报道了可准确诊断A型、B1型和B2型血管的AI系统。其准确性优于中级及以下医生的诊断。但该系统不能识别对诊断食管鳞癌浸润深度意义重大的B3型血管。Uema 等[36]则基于ResNeXt-101-32x8d算法,利用1 777张包含B1型、B2型和B3型血管的内镜图像训练了一个AI系统。结果显示,该系统的总体诊断准确性为84.2%,高于8名内镜医师的平均诊断水平(77.8%)。
2.3 人工智能辅助浅表食管鳞癌及癌前病变范围判断
内镜检查联合组织病理学检查是诊断早期食管鳞癌病变的常规方法,对病灶进行有效活检是确保病变不被漏诊的关键。内镜下黏膜剥离术是治疗早期食管鳞癌病变的首选方式,术前准确评估病灶范围对内镜切除治疗至关重要。因此,准确判断病灶范围对活检部位的选择和手术过程的指导意义重大。近年来,四川大学华西医院胡兵教授团队致力于研发判断浅表食管鳞癌及癌前病变边界的AI系统。2020年Guo等[37]利用6 473张非放大和放大NBI图像训练了一个可预测病变性质和病变范围的AI系统,显示出了AI系统在判断浅表食管鳞癌及癌前病变范围方面与内镜医师水平相近。虽然WLE是发现浅表食管鳞癌及癌前病变最常用的筛查技术,但WLE识别食管病变的敏感性差强人意,准确判断病灶边界难度更大。2022年Liu等[38]构建了一个可在WLE下准确识别浅表食管鳞癌及癌前病变并勾画其边界的AI系统。该系统以YOLACT算法为网络框架,使用890张来自4家医院的WLE图像进行训练和测试。结果显示,AI系统诊断浅表食管鳞癌及癌前病变的准确性为84.5%,勾画病灶边界的准确性与专家水平相当(98.1% vs. 95.3% ),优于高年资医生(78.6%)。
3 问题
虽然AI在浅表食管鳞癌及癌前病变内镜诊断中的应用取得了重大进展,目前仍存在以下局限性:(1)多数研究样本量少,且只纳入了高质量图像建模,无法完整模拟浅表食管鳞癌及癌前病变的异质性和临床复杂的场景;(2)多数报道是回顾性研究,存在选择偏倚,无法体现AI的真实性能;(3)目前对于放大内镜观察IPCL形态学的研究较少,仅是区分A型和B型血管,或者单独研究B型血管的亚型,对同时纳入A型血管和B型各个亚型血管的研究尚缺乏;(4)多数研究未评估AI系统对内镜医师的辅助作用,且缺乏外部数据验证AI系统的通用性。因此,需要大量多种内镜模式的图像和视频数据以及不同的AI算法,以实现多功能AI系统的稳健性、通用性及多样性。还需开展多中心、大样本临床研究,为AI系统的转化应用提供坚实的理论基础。
4 展望
总的来说,目前所报道的基于深度学习的AI系统对浅表食管鳞癌及癌前病变具有较高的诊断准确性和敏感性。虽然已取得重大突破,但对于AI系统的优化我们寄予更多期望:(1)目前的研究从病变性质的准确判断、病变深度的初步预测及病变范围的有效识别等角度不断深入,未来能否整合为一个多功能AI系统,实现对浅表食管鳞癌及癌前病变的精准诊断;(2)各项研究中内镜视频验证数据相对较少,且使用的视频数据集时间短且播放速度慢,希望未来能提供更多的视频数据甚至直接应用于临床来缩小研究和临床实践间的差距;(3)随着国民的健康意识逐渐增强,健康体检的人数越来越多,希望未来可以收集从健康黏膜到早期病变黏膜的不同内镜图像以研究病变在发生癌变之前的黏膜以及微血管变化,通过大数据的整合,争取在病变发生早期就可以识别并进行干预。
利益冲突:无。
作者贡献:严萍参与选题和设计,起草、撰写及修改论文;袁湘蕾参与选题和设计,起草、修改论文;张琼英参与选题和设计,修改论文;胡兵参与选题和设计,修改论文。
食管癌是常见的消化道恶性肿瘤,我国2016年发布的恶性肿瘤发病和死亡报告[1]显示,其发病率居恶性肿瘤发病的第6位、死亡率居第4位。2020年我国食管癌发病例数和死亡例数约占全世界一半,癌症负担是世界平均水平的2倍,严重威胁人民生活健康[2]。虽然近年来食管鳞状细胞癌(鳞癌)发病率有下降趋势,但其仍是我国食管癌的主要病理类型[3]。进展期食管鳞癌患者经手术等综合治疗后5年生存率不足20%,而浅表食管鳞癌及癌前病变微创治疗后5年生存率可达90%以上[4-5]。因此,早发现、早诊断和早治疗是降低食管癌患者死亡率并提高生存率的关键。
内镜筛查是早期发现食管鳞癌的重要方式,但病变检出率受患者配合情况、内镜医师操作及诊断水平等多因素影响。据文献[6]报道,我国浅表食管鳞癌及癌前病变的检出率不足10%,远远低于发达国家。因此,当务之急是探究如何充分利用有限的医疗资源,高效地提高我国食管鳞癌的早诊率。
近年来,基于卷积神经网络(convolutional neural network,CNN)的人工智能(artificial intelligence,AI)技术为解决这一问题提供了新的思路。AI通过学习大量内镜图像自动提取疾病特征,并进行特征筛选,从而达到模仿人类认知水平,辅助医生快速、高效地诊断疾病。目前,AI已在浅表食管鳞癌及癌前病变诊断领域取得了可喜的成绩,有望应用到临床中。本文就AI在浅表食管鳞癌及癌前病变内镜诊断中的应用和进展进行综述,并对其未来发展方向做出展望。
1 人工智能简介
AI的概念在20世纪50年代首次被提及,是通过对人的意识、思维信息过程和智能行为进行模拟、延伸和拓展,以解决较复杂的问题[7]。实现AI的一种方式则是机器学习,即计算机通过学习一批相对应的输入输出数据,自动地从这些数据中总结出两者的内在关系和规律,并得出某种预测模型,进而利用该模型对未知数据进行预测[7]。2016年谷歌公司基于深度学习开发的AlphaGo横空出世,在全球范围内引起了广泛的关注。人工神经网络是现代深度学习算法完成特征识别最常见的方式之一,旨在模拟人脑神经系统的结构和功能,实现复杂信息的加工、处理、存储、搜索和推理等任务[8]。CNN是由卷积层和池化层组成,通过卷积层与池化层的叠加实现对输入数据的特征提取,最后连接全连接层实现分类。CNN的权值共享网络结构使之更类似于生物神经网络,减少了权值的数量,降低了网络模型的复杂度。CNN在图像处理上有众多优势,如能自行提取图像特征包括颜色、纹理、形状及图像的拓扑结构[9],因此CNN是医学图像识别领域常用的深度学习算法。
2 人工智能用于内镜诊断浅表食管鳞癌及癌前病变
2.1 人工智能辅助浅表食管鳞癌及癌前病变检出
AI用于内镜诊断浅表食管鳞癌及癌前病变是通过使用专家标注的图像或视频数据进行模型训练。临床上常用的检测食管鳞癌的内镜技术包括白光内镜(white-light endoscopy,WLE)、窄带光谱成像技术(narrow-band imaging,NBI)、蓝激光成像技术(blue laser imaging,BLI)、碘染色和放大内镜(magnification endoscopy,ME)。
WLE检查是筛查食管病变最常用的方法,研究者相继成功开发了WLE-AI系统用于检测浅表食管鳞癌。Cai等[10]收集了2 428张和187张WLE图像分别构建训练集和测试集,发现AI系统的诊断性能与专家水平相当。在AI系统的辅助下,各级年资医师的诊断能力均有所提升,突出了AI系统的辅助潜能。Tang等[11]开发的AI系统基于4 002张WLE图像训练而成,使用1 033张内部和外部来源的内镜图像和14段内镜视频进行了验证。该系统不仅在内部图像验证集中检测浅表食管鳞癌的敏感度达97.9%,在外部图像测试集中也取得了相媲美的诊断性能,而且准确识别出13段视频中的浅表食管鳞癌病灶。这些结果显示出了该系统具备良好的外推适应能力和临床实际应用可能性。Li等[12]利用4 735张食管NBI内镜图像研发了一个检测浅表食管鳞癌的NBI-AI系统,并使用316张测试图像比较该系统与Cai等[9]的WLE-AI系统的性能。研究结果显示,虽然NBI-AI系统的准确性和特异性优于WLE-AI系统,但其敏感性低。如果联合使用NBI-AI系统和WLE-AI系统,内镜医师的诊断水平可显著提高。因此,相比单一内镜模式的AI系统,整合多种内镜技术的多模态AI系统具有更大的临床应用价值。
Horie等[13]于2019年首次报道了整合WLE和NBI的双模态AI诊断浅表食管癌系统。该系统使用SSD(Single Shot MultiBox Detector)算法训练而成。通过对1 118张图像进行测试分析,可准确识别出98%的浅表食管癌病例,其中7个是<10 mm的早期病变。2020年Ohmori等[14]首次报道了整合WLE、NBI、BLI和ME的多模态AI诊断浅表食管癌系统。该系统基于SSD算法,利用22 562张内镜图像构建而成。使用255张WLE图片、268张非放大NBI和非放大BLI图片以及204张放大NBI和放大BLI图片测试系统,结果显示AI系统仅需22 s即可诊断所有图像,AI系统在非ME的NBI/BLI图片中的敏感度高达100%,ME图片中的敏感度为98%,WLE图片中的敏感度为90%,均与经验丰富的内镜医师的诊断水平相当。2021年,Yang等[15]报道了集WLE、BLI、碘染色和ME四种模态的AI诊断浅表食管鳞癌系统,该系统由2个不同的神经网络组成以分别识别非ME图像和ME图像,分别采用YOLO V3算法和ResNet V2算法构建而成。使用10 988张和2 309张图像进行训练和测试系统,发现低年资医生的诊断水平可以得到显著提升。以上两个研究均是单中心研究,缺乏多中心大样本数据进行验证。2022年Yuan等[16]报道了整合WLE、NBI、碘染色和ME的基于YOLO V3算法的多模态AI诊断浅表食管鳞癌及癌前病变系统。该系统由45 770张图片训练而成,使用6 075张与训练集同源的图片测试AI系统,还使用来自其它4家医院的2 088张图片进一步测试系统。研究结果显示,对于WLE图片中局限于上皮层的浅表食管鳞癌,AI系统比经验丰富的内镜医师更敏感(90.8% vs. 82.5%)。Ikenoyama等[17]使用6 634张WLE和NBI图片研发了无需碘染色即可识别斑驳食管的AI系统,从而识别食管癌高危人群,减少碘染色给患者带来的不适。通过使用667张图像进行测试,发现AI系统识别斑驳食管的敏感性明显高于经验丰富的内镜医师。
虽然辅助诊断浅表食管鳞癌及癌前病变的AI系统从单一内镜模式到多种内镜模式的发展已取得了惊人的进步,但仅基于静止图片的研究难以满足临床实践需求,仍需动态视频构建和验证。Fukuda等[18]于2020年首次报道了使用视频数据构建AI诊断浅表食管鳞癌系统。该系统采用SSD算法,由17 274张视频帧图像训练而成。用144个视频将AI系统的诊断性能与专家进行比较,发现AI系统在识别可疑病变及区别癌与非癌病变方面的敏感度和准确率均高于专家。2021年Shiroma等[19]收集了8 428张WLE和NBI图像开发了一个辅助诊断浅表食管鳞癌AI系统,并使用64个慢速视频和80个高速视频测试了该系统。研究结果显示,该系统1 s可识别30帧图像。Waki等[20]使用17 336张浅表食管鳞癌和1 461 张非癌和正常食管的NBI和BLI图像,开发了一个辅助检测浅表食管鳞癌的AI系统,并在视频模拟下评估其性能。在NBI/BLI上,AI系统的诊断敏感度为85.7%,明显高于内镜医生的敏感度(75.0%)。在WLI上,AI系统检测敏感度为77.8%。
细胞内镜是一种新型的放大内镜,可通过使用亚甲基蓝等化合物进行食管黏膜染色,实现实时观察体内表面上皮细胞。2019年Kumagai等[21]基于GoogLeNet算法构建了一个细胞内镜下识别浅表食管鳞癌的AI系统。利用4 715张食管细胞内镜图像训练该系统,用1 520张图像进行测试。AI系统的总体敏感度及准确率分别为92.6%和90.9%,该系统有望辅助内镜医师基于细胞内镜图像诊断浅表食管鳞癌。
2.2 人工智能辅助浅表食管鳞癌及癌前病变深度和分型预测
食管癌的浸润深度与淋巴结转移风险密切相关,也是影响患者治疗决策选择的重要因素。局限于上皮层(epithelium,EP)或固有层(lamina propria,LPM)病变的淋巴结转移风险几乎为0%,但浸润至黏膜肌层(muscularis mucosa,MM)、黏膜下浅层(SM1)、黏膜下深层(SM2)或更深层病变的淋巴结转移风险分别增加至8%~15%、11%~53%和30%~54%[22-25]。食管EP-LPM病变是内镜下治疗的绝对适应证,MM-SM1病变则是相对适应证,而SM2以深的病变则需手术或放射治疗和化学治疗[26]。因此,准确判断食管癌浸润深度对于避免过度治疗、提高患者生活质量至关重要。
Tokai 等[27]使用了1 751张包含WLE和NBI两种内镜模式的食管鳞癌图像,采用SSD算法,开发了可区分EP-SM1病变和SM2~3病变的AI系统。通过291张WLE和NBI 图像进行测试,AI系统判断浸润深度的总体准确性为80.9%,其中EP-SM1病变的诊断敏感度为91.4%,SM2~3病变的诊断准确率为73.3%。明显高于参与人机对照试验的12名内镜医师(共纳入了13名医生)。WLE和NBI是临床中最常用的内镜检查模式,但有研究表明再联合放大内镜可获得更高的判断病变浸润深度的准确性。Nakagawa 等[28]开发了一个可在非放大和放大内镜模式下区分EP-SM1病变和SM2~3病变的AI系统,该系统由8 660张非放大和5 678张放大的WLE、NBI和BLI图像训练而成,仅需29 s即可准确诊断出405张非放大和509张放大图像上的病灶浸润深度。AI系统在非放大和放大模式下诊断EP-SM1病变的准确率分别为92.9%和89.7%,诊断SM2~3病变的准确率分别为90.3%和92.3%,诊断性能与16名经验丰富的内镜医师水平相当。Wang等[29]研发的AI系统实现了可在WLE和NBI图像上准确区分食管低级别上皮内瘤变、高级别上皮内瘤变和鳞癌病变。该AI系统基于936张WLE和NBI图像,使用SSD算法构建而成。通过对264张图像进行测试,AI系统在病变检测和病变浸润深度预测方面具有良好的诊断性能,其对低级别上皮内瘤变、高级别上皮内瘤变和鳞癌病变的敏感度分别为83.4%、87.2%和98.9%。但上述研究仅限于使用高质量的静止图像进行系统的训练及验证,而多元化的内镜视频数据则能更利于客观地评估AI系统的性能。Shimamoto 等[30]于2020年首次利用内镜视频开发了可区分食管EP-SM1病变和SM2~3病变的AI系统。从909例病理证实食管浅表鳞癌的视频和静止图像中提取了23 977张图像作为训练集,从102个非ME和ME视频中提取WLE图像和NBI/BLI图像作为测试集。该AI系统在非放大和放大模式下诊断SM2~3病变的准确率分别为87.3%和89.2%,高于具有长期经验的14名内镜专家(84.7% 和 84.4%)。
随着内镜技术的日益发展,日本学者[31-32]发现使用放大内镜观察食管鳞状上皮乳头内毛细血管袢(intrapapillary capillary loops,IPCL)的形态学变化可初步判断肿瘤浸润深度。日本食管学会提出的简化IPCL分型是目前临床常用的分型方法。在该分型中,A型血管提示正常食管黏膜或低级别上皮内瘤变,B1型、B2型和B3型血管分别提示EP-LPM病变、MM-SM1病变和SM2以深病变。内镜医生诊断IPCL分型需具有足够的经验且存在一定的主观性,因此,AI辅助诊断是促进医生同质化的有效手段。 2019年和2021年Everson 等[33-34]相继报道了一个二分类诊断IPCL的AI系统。该系统可准确区分A型血管和B型血管,然而因其不能对B型血管的亚型进行分类,在诊断浸润深度方面作用有限。但上述报道为AI辅助诊断IPCL分型提供了理论依据。我国学者Zhao等[35]首次报道了可准确诊断A型、B1型和B2型血管的AI系统。其准确性优于中级及以下医生的诊断。但该系统不能识别对诊断食管鳞癌浸润深度意义重大的B3型血管。Uema 等[36]则基于ResNeXt-101-32x8d算法,利用1 777张包含B1型、B2型和B3型血管的内镜图像训练了一个AI系统。结果显示,该系统的总体诊断准确性为84.2%,高于8名内镜医师的平均诊断水平(77.8%)。
2.3 人工智能辅助浅表食管鳞癌及癌前病变范围判断
内镜检查联合组织病理学检查是诊断早期食管鳞癌病变的常规方法,对病灶进行有效活检是确保病变不被漏诊的关键。内镜下黏膜剥离术是治疗早期食管鳞癌病变的首选方式,术前准确评估病灶范围对内镜切除治疗至关重要。因此,准确判断病灶范围对活检部位的选择和手术过程的指导意义重大。近年来,四川大学华西医院胡兵教授团队致力于研发判断浅表食管鳞癌及癌前病变边界的AI系统。2020年Guo等[37]利用6 473张非放大和放大NBI图像训练了一个可预测病变性质和病变范围的AI系统,显示出了AI系统在判断浅表食管鳞癌及癌前病变范围方面与内镜医师水平相近。虽然WLE是发现浅表食管鳞癌及癌前病变最常用的筛查技术,但WLE识别食管病变的敏感性差强人意,准确判断病灶边界难度更大。2022年Liu等[38]构建了一个可在WLE下准确识别浅表食管鳞癌及癌前病变并勾画其边界的AI系统。该系统以YOLACT算法为网络框架,使用890张来自4家医院的WLE图像进行训练和测试。结果显示,AI系统诊断浅表食管鳞癌及癌前病变的准确性为84.5%,勾画病灶边界的准确性与专家水平相当(98.1% vs. 95.3% ),优于高年资医生(78.6%)。
3 问题
虽然AI在浅表食管鳞癌及癌前病变内镜诊断中的应用取得了重大进展,目前仍存在以下局限性:(1)多数研究样本量少,且只纳入了高质量图像建模,无法完整模拟浅表食管鳞癌及癌前病变的异质性和临床复杂的场景;(2)多数报道是回顾性研究,存在选择偏倚,无法体现AI的真实性能;(3)目前对于放大内镜观察IPCL形态学的研究较少,仅是区分A型和B型血管,或者单独研究B型血管的亚型,对同时纳入A型血管和B型各个亚型血管的研究尚缺乏;(4)多数研究未评估AI系统对内镜医师的辅助作用,且缺乏外部数据验证AI系统的通用性。因此,需要大量多种内镜模式的图像和视频数据以及不同的AI算法,以实现多功能AI系统的稳健性、通用性及多样性。还需开展多中心、大样本临床研究,为AI系统的转化应用提供坚实的理论基础。
4 展望
总的来说,目前所报道的基于深度学习的AI系统对浅表食管鳞癌及癌前病变具有较高的诊断准确性和敏感性。虽然已取得重大突破,但对于AI系统的优化我们寄予更多期望:(1)目前的研究从病变性质的准确判断、病变深度的初步预测及病变范围的有效识别等角度不断深入,未来能否整合为一个多功能AI系统,实现对浅表食管鳞癌及癌前病变的精准诊断;(2)各项研究中内镜视频验证数据相对较少,且使用的视频数据集时间短且播放速度慢,希望未来能提供更多的视频数据甚至直接应用于临床来缩小研究和临床实践间的差距;(3)随着国民的健康意识逐渐增强,健康体检的人数越来越多,希望未来可以收集从健康黏膜到早期病变黏膜的不同内镜图像以研究病变在发生癌变之前的黏膜以及微血管变化,通过大数据的整合,争取在病变发生早期就可以识别并进行干预。
利益冲突:无。
作者贡献:严萍参与选题和设计,起草、撰写及修改论文;袁湘蕾参与选题和设计,起草、修改论文;张琼英参与选题和设计,修改论文;胡兵参与选题和设计,修改论文。