Processing math: 9%
  • 中国精品科技期刊
  • CCF推荐A类中文期刊
  • 计算领域高质量科技期刊T1类
高级检索

RCAR-UNet:基于粗糙通道注意力机制的视网膜血管分割网络

孙颖, 丁卫平, 黄嘉爽, 鞠恒荣, 李铭, 耿宇

孙颖, 丁卫平, 黄嘉爽, 鞠恒荣, 李铭, 耿宇. RCAR-UNet:基于粗糙通道注意力机制的视网膜血管分割网络[J]. 计算机研究与发展, 2023, 60(4): 947-961. DOI: 10.7544/issn1000-1239.202110735
引用本文: 孙颖, 丁卫平, 黄嘉爽, 鞠恒荣, 李铭, 耿宇. RCAR-UNet:基于粗糙通道注意力机制的视网膜血管分割网络[J]. 计算机研究与发展, 2023, 60(4): 947-961. DOI: 10.7544/issn1000-1239.202110735
Sun Ying, Ding Weiping, Huang Jiashuang, Ju Hengrong, Li Ming, Geng Yu. RCAR-UNet:Retinal Vessels Segmentation Network Based on Rough Channel Attention Mechanism[J]. Journal of Computer Research and Development, 2023, 60(4): 947-961. DOI: 10.7544/issn1000-1239.202110735
Citation: Sun Ying, Ding Weiping, Huang Jiashuang, Ju Hengrong, Li Ming, Geng Yu. RCAR-UNet:Retinal Vessels Segmentation Network Based on Rough Channel Attention Mechanism[J]. Journal of Computer Research and Development, 2023, 60(4): 947-961. DOI: 10.7544/issn1000-1239.202110735
孙颖, 丁卫平, 黄嘉爽, 鞠恒荣, 李铭, 耿宇. RCAR-UNet:基于粗糙通道注意力机制的视网膜血管分割网络[J]. 计算机研究与发展, 2023, 60(4): 947-961. CSTR: 32373.14.issn1000-1239.202110735
引用本文: 孙颖, 丁卫平, 黄嘉爽, 鞠恒荣, 李铭, 耿宇. RCAR-UNet:基于粗糙通道注意力机制的视网膜血管分割网络[J]. 计算机研究与发展, 2023, 60(4): 947-961. CSTR: 32373.14.issn1000-1239.202110735
Sun Ying, Ding Weiping, Huang Jiashuang, Ju Hengrong, Li Ming, Geng Yu. RCAR-UNet:Retinal Vessels Segmentation Network Based on Rough Channel Attention Mechanism[J]. Journal of Computer Research and Development, 2023, 60(4): 947-961. CSTR: 32373.14.issn1000-1239.202110735
Citation: Sun Ying, Ding Weiping, Huang Jiashuang, Ju Hengrong, Li Ming, Geng Yu. RCAR-UNet:Retinal Vessels Segmentation Network Based on Rough Channel Attention Mechanism[J]. Journal of Computer Research and Development, 2023, 60(4): 947-961. CSTR: 32373.14.issn1000-1239.202110735

RCAR-UNet:基于粗糙通道注意力机制的视网膜血管分割网络

基金项目: 国家自然科学基金面上项目(61976120);国家自然科学基金青年科学基金项目(62006128,62102199);江苏省自然科学基金项目(BK20191445);江苏省双创博士计划项目;江苏省研究生科研与实践创新计划项目(SJCX20_1150);江苏省高等学校自然科学研究重大项目(21KJA510004);江苏省高等学校自然科学基金面上项目(20KJB520009);南通市科技局基础科学研究项目(JC2020141,JC2021122);江苏“青蓝工程”项目
详细信息
    作者简介:

    孙颖: 1997年生. 硕士研究生. 主要研究方向为粒计算、粗糙集和深度学习

    丁卫平: 1979年生. 博士,教授,博士生导师,CCF高级会员. 主要研究方向为数据挖掘、机器学习、粒计算、演化计算和大数据分析

    黄嘉爽: 1988年生. 博士,讲师. 主要研究方向为脑网络分析和深度学习

    鞠恒荣: 1989年生. 博士,副教授. 主要研究方向为粒计算、粗糙集、机器学习和知识发现

    李铭: 1996年生. 硕士研究生. 主要研究方向为数据挖掘、粒度计算和大数据分析

    耿宇: 1998年生. 硕士研究生. 主要研究方向为粒计算、机器学习和深度学习

    通讯作者:

    丁卫平(dwp9988@163.com

  • 中图分类号: TP391

RCAR-UNet:Retinal Vessels Segmentation Network Based on Rough Channel Attention Mechanism

Funds: This work was supported by the General Program of the National Natural Science Foundation of China (61976120), the National Natural Science Foundation of China for Young Scientists (62006128, 62102199), the Natural Science Foundation of Jiangsu Province (BK20191445), the Double-Creation Doctoral Program of Jiangsu Province, the Postgraduate Research & Practice Innovation Program of Jiangsu Province (SJCX20_1150), the Major Program of the Natural Science Research of Jiangsu Province Higher Education Institutions (21KJA510004), the General Program of the Natural Science Foundation of Jiangsu Province Higher Education Institutions (20KJB520009), the Basic Science Research Program of Nantong Science and Technology Bureau (JC2020141, JC2021122), and the Qing Lan Project of Jiangsu Province.
More Information
    Author Bio:

    Sun Ying: born in 1997. Master candidate. Her main research interests include granular computing, rough sets, and deep learning

    Ding Weiping: born in 1979. PhD, professor, PhD supervisor. Senior member of CCF. His main research interests include data mining, machine learning, granular computing, evolutionary computing, and big data analytics

    Huang Jiashuang: born in 1988. PhD, lecturer. His main research interests include brain network analysis and deep learning. (hjshdym@163.com

    Ju Hengrong: born in 1989. PhD, associate professor. His main research interests include granular computing, rough sets, machine learning, and knowledge discovery. (juhengrong@ntu.edu.cn

    Li Ming: born in 1996. Master candidate. His main research interests include data mining, granular computing, and big data analytics. (liming_2014@163.com

    Geng Yu: born in 1998. Master candidate. His main research interests include granular computing, machine learning, and deep learning. (tian19981999@163.com

  • 摘要:

    眼底图像中视网膜血管的健康状况对早期诊断各种眼科疾病及糖尿病心脑血管疾病等具有重要意义,然而视网膜血管结构细微、边界模糊且分布不规则,对其进行准确分割存在较大的难度.针对视网膜血管的这些特征,提出一种粗糙通道注意力残差U型网——粗糙通道注意力残差U型网络(RCAR-UNet).该网络首先引入粗糙集理论中上下近似概念设计粗糙神经元;接着基于粗糙神经元构建粗糙通道注意力模块,该模块在U-Net跳跃连接中采用全局最大池化和全局平均池化构造上下近似神经元,并进行神经元间的加权求和,对所建立的通道依赖关系进行合理的粗糙化,该依赖关系不仅包含全局信息,同时具有局部特性,可有效实现对所提取视网膜血管特征的准确重标定;然后添加残差连接,将特征直接从低层传递给高层,有助于解决网络性能退化问题,并有效提取更加丰富的视网膜血管特征;最后为了验证所提视网膜分割网络的有效性,在3个眼底视网膜公开图像数据集上与U-Net,Attention U-Net等传统网络模型进行对比实验,实验结果表明,所提视网膜分割网络在血管分割准确率、灵敏度和相似度等方面具有较高的优越性.

    Abstract:

    The health of retinal vessels in fundus images is of great significance for the early diagnosis of various ophthalmic diseases and diabetic cardiovascular diseases, etc. However, the retinal blood vessels are delicate, distributed irregularly and the boundary is ambiguous. Therefore, it is difficult to accurately segment them. Based on the characteristics of retinal blood vessels, we propose a U-shaped network—rough channel attention residual U-Net (RCAR-UNet), which combines rough neurons and channel attention mechanism. Firstly, the network introduces the concept of upper and lower approximation in rough set theory to design rough neurons. Secondly, the rough channel attention module is constructed based on rough neurons, and the module uses global max pooling and global average pooling in U-Net skip connections to construct upper and lower approximation neurons, and performs weighted summation between neurons to reasonably rough the established channel dependencies, which not only contain global information but also have local characteristics, and can effectively achieve accurate rescaling of the extracted retinal vessels features. Then adding residual connections to transfer features directly from the lower to the higher layers, to help solve the network performance degradation problem and effectively extract richer retinal vascular features. Finally, in order to verify the effectiveness of the proposed RCAR-UNet model, comparison experiments are performed on three public fundus image datasets with traditional network models such as U-Net, Attention U-Net, etc. The results show that the RCAR-UNet model has high superiority in the accuracy, sensitivity and similarity of blood vessel segmentation.

  • 眼健康作为国民健康中的重要组成部分,涉及到公共卫生和社会领域的民生福祉,引起了国家健康委的高度重视[1].视网膜血管中蕴含丰富的形态特征,如血管直径、旁支角度、尺寸和弯曲度等[2].各种眼科疾病以及心脑血管疾病都会导致视网膜血管出现形态结构变化、出血等不同程度的病变,从而导致视力受损[3],所以在临床上医生广泛使用眼底图像来分析视网膜血管的形态变化并辅助诊断各种眼科及心脑血管等疾病具有重要意义[4]. 然而眼底图像中视网膜血管分布密集而无规律,存在大量易与背景混淆、对比度较低的细小血管,血管边界模糊不清,同时易受采集设备和光照以及病变组织的影响[5]. 这些问题使得临床上手动分割视网膜血管不仅工作量巨大而且对医疗人员的经验和技能要求颇高. 此外,不同专家对同一张图像的血管提取也存在主观上的差异,手动分割已不能满足临床的需要.

    随着计算机技术的不断发展,实现眼底视网膜血管的智能分割并对眼科疾病进行辅助诊断和决策,成为国内外学者关注的研究热点. 深度学习凭借其在识别应用中超高的预测准确率,在图像处理领域获得了极大关注[6-9]. 与传统方法相比,深度学习模型能够以端到端的方式自动提取特征.全卷积神经网络[10-11](fully convolutional network,FCN)是首个应用于图像语义分割任务的神经网络,在此基础上形成目前分割任务中最流行的编解码结构[12-13]. 而U-Net模型不仅具有编解码结构,同时在U型对称层之间添加跳跃连接,实现低层特征和高层特征的拼接和融合,在图像分割领域有显著的优势,在医学图像分割领域获得较好的效果. 何慧等人[14]利用改进预测编码器U-Net模型实现PET肿瘤的自动分割,实现了更准确、快速、稳定的肿瘤分割,分割结果可以达到金标准的88.5%;Rundo等人[15]为了解决前列腺区域分割任务,将Squeeze-and-Excitation块合并到U-Net中,提出了一种新的卷积神经网络,称为USE-Net;Jin等人[16]将可变形卷积集成到U-Net模型中,提出DUNet网络模型,根据血管的大小和形状自适应地调节感受野来捕获各种形状和大小的视网膜血管等.

    Attention机制是模仿人类注意力而提出的一种解决问题的方法,是一种能让模型对与任务相关的重要信息重点关注的技术,能够作用于任何序列模型,其应用领域包括文本、图片等. Basiri等人[17]将Attention机制和长短期记忆模型相融合,提出一种基于注意力的双向CNN-RNN(convolutional neural network-recurrent neural network)深度模型用于情感分析;Haut等人[18]将Attention机制和残差网络模型相结合用于分析遥感高光谱图像,得到更为准确的分类准确率.

    进一步地,将符合人类视觉机制的Attention机制与能够实现低层特征和高层特征融合的U-Net模型相结合,实现对显著性区域的关注,在医学图像分割中广泛应用. Guo等人[19]开发了一个3D深度注意力U-Net,从冠状动脉计算机断层扫描血管造影中分割左心室心肌轮廓;Cui等人[20]将注意力机制和U-Net模型相结合,在短轴磁共振成像图像中进行心脏分割. 基于注意力机制的U-Net模型在眼底视网膜血管分割中也取得不错效果[21-24],Guo等人[21]提出了一种空间注意力U-Net的轻量级网络实现对视网膜血管的精确分割;Tang等人[22]提出多尺度的通道注意力模块和空间信息定位模块来提高血管末端的分割准确率.

    上述模型与方法将Attention机制融合U-Net网络用于眼底视网膜血管分割中仍然存在一定的不足,视网膜血管分布密集、杂乱且形状不规则,血管粗细不一,存在大量细小血管,血管边界不清晰,且易受采集设备和光照以及病变组织等噪声的影响,上述模型无法解决血管边界的不确定性和细小血管的分割. 为弥补该不足之处,本文引入能有效分析不精确、不一致、不完整等各种不完备信息的粗糙集理论中上下近似概念设计粗糙神经元,对特征通道依赖关系进行合理粗糙化.

    本文针对视网膜血管分布密集而杂乱,存在大量对比度低的细小血管,血管边界模糊,且易受采集设备和光照以及病变区域等噪声影响的特点,提出一种粗糙通道注意力残差U型网络(RCAR-UNet),有效提高对细微血管的分割精度. 该网络以U-Net模型为主干,首先引入粗糙集上下近似概念设计粗糙神经元. 然后利用粗糙神经元对每一层下采样视网膜血管特征图建立通道之间的依赖关系,构建粗糙通道注意力机制,将全局最大池化和全局平均池化分别作为通道重要性权重的上下近似神经元,将全局平均池化作为通道重要性权重的下近似神经元,对每个通道重要性权重设置上下限,并对上下限赋予自适应权重系数,进行神经元间加权求和,得到更加合理的Attention系数;对下采样的视网膜血管特征图进行特征的重标定,并与U-Net模型对称层的上采样视网膜血管特征图进行高低层特征之间的拼接融合. 最后为解决经典U-Net网络的退化问题,在该模型中添加残差连接,实现将低层视网膜特征直接传递给高层,可有效提取更加准确的视网膜血管特征.

    粗糙集于1982年由波兰数学家Pawlak[25]提出,是一种可以定量分析处理不精确、不一致、不完整信息与知识的数学工具.粗糙集理论基于不可分辨关系[26]对数据进行划分,利用上下近似集对目标进行描述,形成正域、负域和边界域3个互不重叠的区域[27].

    假设决策信息系统表示为S=(U,AT,f,V),其中,U={x1,x2,,xn}表示非空有限对象集合,n表示系统中对象的个数;AT表示信息系统的属性集合,它由条件属性集合C和决策属性集合D共同组成;V=aATVa表示所有属性的值域;f:U×ATV表示信息函数,aATxUf(x,a)Va.

    粗糙集可以通过上、下近似集对目标概念X进行逼近. 粗糙集在属性集合RA对论域U的任意对象子集X中的对象进行上、下近似集的划分,那么X基于属性集合R的上近似集¯R(X)和下近似集R_(X)定义为

    ¯R(X)={xU|[x]RX} (1)
    R_(X)={xU|[x]RX}. (2)

    目标概念X基于属性集合R的正域POSR(X)、负域NEGR(X)和边界域BNDR(X)定义为

    POSR(X)={xU|[x]RX} (3)
    NEGR(X)={xU|[x]RX}, (4)
    BNDR(X)=¯R(x)R_(x). (5)

    正域POSR(X)表示论域U中基于不可分辨关系R一定属于目标概念X的对象集合;负域NEGR(X)表示论域U中基于不可分辨关系R一定不属于目标概念X的对象集合;边界域BNDR(X)表示论域U中基于不可分辨关系R可能属于目标概念X,也可能不属于目标概念X的对象集合. 边界域BNDR(X)描述了X的粗糙度,若BNDR(X)=,说明其是精确的集合;若BNDR(X),说明其是粗糙集.

    Attention U-Net模型以U-Net编解码的U形网络结构为主干,其中U-Net网络结构包括:

    1) 收缩路径(编码器)包括卷积层、激活层和池化层. 卷积层具有局部感知、参数共享等特性,用于图像局部特征的自动提取;激活层的输出都是对上一层输入的线性映射,常用激活函数ReLu和激活函数Sigmoid;池化层则是对所提取的特征进行数据的降维和压缩操作,常用平均池化和最大池化.

    2) 扩展路径(解码器)包括反卷积层和卷积层,经过下采样特征图尺寸会越来越小,所以上采样主要用于恢复特征图的细节和尺寸.

    3) 在上采样和下采样的同层结构中添加跳跃连接,将高层图像特征信息与低层图像特征信息相联合,实现上下特征信息的融合.

    U-Net模型最主要的思想是在收缩路径上捕获全局特征,在扩展路径上实现精确定位. 为解决扩展路径的上采样过程中重建的空间信息不精确问题,使用跳跃连接将下采样的空间信息与上采样的空间信息相结合,然而跳跃连接也带来了许多冗余的底层特征,造成大量的无效计算,浪费大量的计算资源. 对此,Oktay等人[28]将注意力门作用于U-Net模型的跳跃连接中,提出Attention U-Net模型,该模型能够有效地抑制不相关区域中的激活,从而减少冗余特征的数量,并且不会引入大量的参数和计算量,得到更加符合人类视觉机制的网络模型,其结构如图1所示. 同一张图像的不同区域关注度不同,对此,通过注意力门系数控制关注区域,得到更加具有语义的特征图. 注意力门具体结构如图2所示. 将收缩路径得到的特征图\boldsymbol{g}\in {\mathbb{R}}^{{H}_{\boldsymbol{g}}\times {W}_{\boldsymbol{g}}\times C}与扩展路径中同层通道数相同的特征图\boldsymbol{p}\in {\mathbb{R}}^{{H}_{\boldsymbol{p}}\times {W}_{\boldsymbol{p}}\times C}相加,经过一系列的线性变换,得到注意力系数\boldsymbol{A}\in {\mathbb{R}}^{{H}_{\boldsymbol{p}}\times {W}_{\boldsymbol{p}}},将其与特征图\boldsymbol{p}相乘,实现对特征图{\boldsymbol{p}}的不同区域特征值的重新标定,得到新的特征图{\boldsymbol{p}}{{{'}}}.

    图  1  Attention U-Net网络结构
    Figure  1.  Attention U-Net network architecture
    图  2  注意力门结构
    Figure  2.  Attention gate architecture

    图像信息复杂多样,其内容蕴含着诸如随机性、模糊性等不确定性信息,例如眼底视网膜血管分布杂乱,形状不规则并且边缘模糊不清,且易受采集设备和光照以及病变影响,这些眼底视网膜血管图像中蕴含的不确定信息使得深度神经网络效果不佳. 1996年,Lingras[29]使用上下界的一般概念引入了粗糙神经网络. 深度神经网络在学习复杂特征方面的成功以及粗糙神经网络处理不确定性的能力,促进了将粗糙神经网络与深度架构相结合[30-31].

    上下限的概念已在人工智能的各种应用中使用,特别是粗糙集理论中上下近似集证明了上下限在规则生成中的有效性,粗糙集理论利用上下近似集对目标概念进行逼近,本文引入粗糙集的上下近似集的思想,构建上下近似神经元对注意力模块所得的注意力系数进行合理粗糙化,粗糙神经元[32-35]结构如图3所示.

    图  3  粗糙神经元结构
    Figure  3.  Rough neuron architecture

    上近似神经元的参数{\theta _{\rm{U}}} = \{ {W_{{\rm{U}}} },{b_{{\rm{U}}} },\alpha \},下近似神经元的参数{\theta _{{\rm{L}}} } = \{ {W_{{\rm{L}}} },{b_{{\rm{L}}} },\beta \},其中{W_{\rm{U}}}{b_{{\rm{U}}} }表示上近似神经元的权重和偏差,{W_{{\rm{L}}} }{b_{{\rm{L}}} }表示下近似神经元的权重和偏差. 图3{O_{{\rm{U}}} }{O_{\rm{L}}}表示上下近似神经元的输出.与常规神经元的单个输出值不同的是,粗糙神经元的输出是一对上下限,其计算公式为:

    {O_{\rm{U}}} = f({W_{\rm{U}}} \times X + {b_{\rm{U}}}{\text{ }}) \text{,} (6)
    {O_{\rm{L}}} = f({W_{{\rm{L}}} } \times X + {b_{{\rm{L}}} }{\text{ }}) . (7)

    最终给定上下边界神经元一定的权重\alpha \beta ,加权求和得到最终粗糙神经元的输出O,表示为

    O = \alpha \times {O_{\rm{U}}} + \beta \times {O_{{\rm{L}}} }. (8)

    粗糙神经元是对输入的数值映射为一个粗糙的范围,最后的输出取决于上下神经元的输出,对于不同的输出赋予一定的权重值,以区分不同神经元对最终输出的贡献. 该方法能够对输入的确定数值粗糙化,对确定性的数值进行重标定,得到更合理、准确的输出值.

    特征图的通道数取决于卷积操作中卷积核的个数,以往认为得到的多通道特征图中每个通道所蕴含的信息重要程度相同,即不对特征通道的重要性加以区分. 然而同一张图像的不同区域关注度不同,同样,每个特征通道的关注度也有所差异. 例如1张眼底视网膜血管图像有2个通道,分割目标是血管,那么会更加关注与分割任务相关的血管通道,也就是需要赋予每个特征通道一个表征通道蕴含信息重要度的权重,以此对不同特征通道信息加以区分. 将表征每个特征通道信息重要性的权重与原特征图对应的每个通道相乘得到的对应值就是真实的特征图值.

    为了建立特征通道之间的关系,引用一个新的维度信息来表征特征通道重要度,进行特征通道之间的融合,即通过训练网络参数的方式计算每个特征通道信息的重要性权重,依照所得到的特征通道重要性权重提升与当前分割任务相关的特征并抑制对当前分割任务无关的特征. 通道注意力机制[36-38]主要包括激励部分,其结构如图4所示.

    图  4  通道注意力机制
    Figure  4.  Channel attention mechanism

    首先是压缩操作,对特征通道维度进行特征图的压缩,通过全局池化,将维度为 {H_{\boldsymbol{p}}} \times {W_{\boldsymbol{p}}} \times C 的特征图的每个通道的2维数据转化为一个实数\mathbb{R};然后是激励操作,包括2层全连接:第1个全连接层是把C个通道压缩成C/r个通道来减少模型所需的参数和计算时间,第2个全连接层将特征图恢复为C个通道,使模型更加非线性,更好地适应通道之间的复杂关系,激活函数ReLu降低了梯度消失的概率,激活函数Sigmoid使C中每个通道的特征权值在0~1之间;最后是特征重标定,重新计算特征通道值,通过权值乘法运算完成特征通道内对原始各个特征通道重要程度的重新标定,并作为下一级的输入数据.

    基于粗糙神经元和通道注意力机制,提出粗糙通道注意力机制模块,并将其嵌入到U-Net模型的跳跃连接中. RCAR-UNet模型结构分别如图5表1所示.

    图  5  RCAR-UNet模型结构
    Figure  5.  Architecture of RCAR-UNet
    表  1  基于粗糙通道注意力U-Net模型结构
    Table  1.  U-Net Model Architecture Based on Rough Channel Attention
    编号模块图像尺寸
    1输入模块输入层48 \times 48 \times 1
    2编码模块 1卷积层1(3 \times 3卷积核,激活函数ReLu)48 \times 48 \times 32
    卷积层2(3 \times 3卷积核,激活函数ReLu)48 \times 48 \times 32
    残差连接48 \times 48 \times 32
    2 \times 2最大池化层, 步长为224 \times 24 \times 32
    3编码模块 2卷积层3(3 \times 3卷积核,激活函数ReLu)24 \times 24 \times 64
    卷积层4(3 \times 3卷积核,激活函数ReLu)24 \times 24 \times 64
    残差连接24 \times 24 \times 64
    2 \times 2最大池化层, 步长为212 \times 12 \times 64
    编码模块3卷积层5(3 \times 3卷积核,激活函数ReLu)12 \times 12 \times 128
    4卷积层6(3 \times 3卷积核,激活函数ReLu)12 \times 12 \times 128
    残差连接12 \times 12 \times 128
    5解码模块12 \times 2上采样24 \times 24 \times 128
    拼接层1上采样1(24 \times 24 \times 128
    粗糙通道注意力1(24 \times 24 \times 64
    24 \times 24 \times 192
    卷积层7(3 \times 3卷积核,激活函数ReLu)24 \times 24 \times 64
    卷积层8(3 \times 3卷积核,激活函数ReLu)24 \times 24 \times 64
    残差连接24 \times 24 \times 64
    6解码模块22 \times 2上采样48 \times 48 \times 64
    拼接层2上采样2(48 \times 48 \times 64
    粗糙通道注意力2(48 \times 48 \times 32
    48 \times 48 \times 96
    卷积层9(3 \times 3卷积核,激活函数ReLu)48 \times 48 \times 32
    卷积层10(3 \times 3卷积核,激活函数ReLu)48 \times 48 \times 32
    残差连接48 \times 48 \times 32
    7卷积层11(1 \times 1卷积核)48 \times 48 \times 2
    8Softmax激活层48 \times 48 \times 2
    9输出模块输出层48 \times 48 \times 2
    下载: 导出CSV 
    | 显示表格

    在U-Net模型的特征编码部分,构建一个简单的特征提取模块包括:残差连接的2个3 \times 3的卷积层和1个2 \times 2的最大池化层. 加入残差连接是因为残差连接能够实现将低层特征直接传播到高层,在一定程度上解决了网络退化的问题,以此提高模型性能.

    在特征解码部分,使用粗糙通道注意力机制来融合特征图的上下语义信息,以便生成更具代表性的特征图.粗糙通道注意力机制融合了粗糙神经元处理不确定信息的能力和通道注意力机制能够区分不同特征通道重要性的优点. 通道注意力机制可以实现对特征图不同特征通道重要度的区分,一般选用全局平均池化对特征图进行压缩,建立特征通道之间的关系,其值在一定程度上具有全局感受野. 然而视网膜血管粗细不一,存在大量对比度较低的细微血管,其结构细长,只有一个或者几个像素的宽度,局部图像细节信息也不容忽视,因此加以利用全局最大池化对特征图进行压缩,使得其值在一定程度上具有局部感受野. 对此,本文在构建粗糙神经元时,使用全局最大池化和全局平均池化作为上下近似神经元对特征通道重要性进行上下限描述,使得Attention系数值兼具全局信息和局部细节信息.在此基础上进行特征重标定,得到新的视网膜血管特征图. 设计粗糙通道注意力机制结构如图6所示.

    图  6  粗糙通道注意力机制
    Figure  6.  Rough channel attention mechanism

    图6所示的具体步骤为:首先定义具有C个通道的低层特征图{{\boldsymbol{L}}_{{\rm{feature}}}} = ({{\boldsymbol{L}}_{{{{{\rm{feature}}} }_1}}},{{\boldsymbol{L}}_{{{{{\rm{feature}}} }_2}}},…,{{\boldsymbol{L}}_{{{{{\rm{feature}}} }_C}}}),其中{{\boldsymbol{L}}_{{{\rm{feature}}} }} \in {\mathbb{R}^{H \times W \times C}}. {{\boldsymbol{L}}_{{{{{\rm{feature}}} }_k}}} \in {\mathbb{R}^{\,H \times W}}表示低层特征图的第k个特征通道,HW分别表示低层特征图的高度和宽度;定义具有C个特征通道的高层特征图{{\boldsymbol{H}}_{{\rm{feature}}}} = ({{\boldsymbol{H}}_{{{{{\rm{feature}}} }_1}}},{{\boldsymbol{H}}_{{{{{\rm{feature}}} }_2}}},…,{{\boldsymbol{H}}_{{{{{\rm{feature}}} }_C}}}),其中{{\boldsymbol{H}}_{{\rm{feature}}}} \in {\mathbb{R}^{{H^{'}} \times {W^{'}} \times C}}. {{\boldsymbol{H}}_{{{{{\rm{feature}}} }_k}}} \in {\mathbb{R}^{{H^{'}} \times {W^{'}}}}表示高层特征图的第k个特征通道,H'W'分别表示高层特征图的高度和宽度.

    对高低特征图进行相加操作,得到融合特征图. 表示为

    \begin{split} &{\boldsymbol{Ne}}{{\boldsymbol{w}}_{{{\rm{feature}}} }} = {{\boldsymbol{L}}_{{{\rm{feature}}} }} + {{\boldsymbol{H}}_{{{\rm{feature}}} }},\\ &{\boldsymbol{Ne}}{{\boldsymbol{w}}_{{\rm{feature}}}} = ({\boldsymbol{Ne}}{{\boldsymbol{w}}_{{{{{\rm{feature}}} }_1}}},{\boldsymbol{Ne}}{{\boldsymbol{w}}_{{{{{\rm{feature}}} }_2}}},…,{\boldsymbol{Ne}}{{\boldsymbol{w}}_{{{{{\rm{feature}}} }_C}}}) . \end{split} (9)

    利用全局最大池化层建立通道间的依赖关系,并保留全局信息,表示为

    {\boldsymbol{F}}_{{{{{\rm{feature}}} }_c}}^{{{\rm{High}}} } = \max ({\boldsymbol{Ne}}{{\boldsymbol{w}}_{{{{{\rm{feature}}} }_c}}}(i,j)). (10)

    其中0 < i \leqslant H0 < j \leqslant W0 < c \leqslant C,全局最大池化即计算每个特征通道中像素的最大值,经过全局最大池化层,得到一个 1 \times 1 \times C 的张量.

    利用全局平均池化层建立通道之间的依赖关系,并保留局部信息,表示为

    {\boldsymbol{F}}_{_{{{{{\rm{feature}}} }_c}}}^{{{\rm{Low}}} } = \frac{1}{{H' · W'}}\sum\limits_{i = 1}^{H'} {\sum\limits_{j = 1}^{W'} {{\boldsymbol{Ne}}{{\boldsymbol{w}}_{{{{{\rm{feature}}} }_c}}}(i,j)} } , (11)

    其中0 < i \leqslant H' 0 < j \leqslant W' 0 < c \leqslant C,全局平均池化即计算每个特征通道中像素和的平均值,经过全局平均池化层,同样得到一个 1 \times 1 \times C 的张量.

    分别对全局平均池化和全局最大池化的2个 1 \times 1 \times C 的张量进行激励操作:第1个全连接层是把 C 个通道压缩成 C / r 个通道来减少模型所需的参数和计算时间;第2个全连接层将特征图恢复为 C 个通道,使模型更加非线性,更好地适应通道之间的复杂关系, r 是指压缩的比例,本文设置 r=16 .激活函数ReLu降低了梯度消失的概率,激活函数Sigmoid使 C 中每个通道的特征权值在0~1之间,得到Attention系数的上下限值,分别表示为

    {\boldsymbol{F}}_{_{{{{{\rm{feature}}} }_c}}}^{{{\rm{High}}} } = Sigmoid({{\boldsymbol{W}}_2} · ReLu({{\boldsymbol{W}}_1} · {\boldsymbol{F}}_{_{{{{{\rm{feature}}} }_c}}}^{{{\rm{High}}} })) \text{,} (12)
    {\boldsymbol{F}}_{_{{{{{\rm{feature}}} }_c}}}^{{{\rm{Low}}} } = Sigmoid({{\boldsymbol{W}}_2} · ReLu({{\boldsymbol{W}}_1} · {\boldsymbol{F}}_{_{{{{{\rm{feature}}} }_c}}}^{{{\rm{Low}}} })). (13)

    其中{{\boldsymbol{W}}_1} \in {\mathbb{R}^{\;\frac{C}{r} \times C}},{{\boldsymbol{W}}_2} \in {\mathbb{R}^{\;\frac{C}{r} \times C}}分别表示2个全连接层的权值矩阵.

    为了使得通道之间的依赖关系既包含全局信息,又包含局部细节信息.对所得到的通道重要性值的上下限进行加权操作,得到新的通道之间的依赖关系:

    {{\boldsymbol{F}}_{{{{{\rm{feature}}} }_c}}} = {{\alpha}} · {\boldsymbol{F}}_{{{{{\rm{feature}}} }_c}}^{{{\rm{High}}} } + \beta · {\boldsymbol{F}}_{{{{{\rm{feature}}} }_c}}^{{{\rm{Low}}} } , (14)

    其中 \alpha, \beta 分别表示上下神经元的权重信息.

    利用输出的通道之间的依赖关系对特征图进行重新标定,得到新的特征图表示:

    {\boldsymbol{F}}_{{{\rm{feature} }_c}}' = {{\boldsymbol{F}}_{{{{{\rm{feature}}} }_c}}} · {{\boldsymbol{L}}_{{{{{\rm{feature}}} }_c}}} . (15)

    {\boldsymbol{F}}_{{{\rm{feature} }_c}}'与对称层具有相同维度的上采样特征图进行拼接,作为网络下一层的输入.

    在U-Net模型的特征解码部分,首先构建一个简单的恢复特征模块包括:一个2 \times 2上采样层和残差连接的2个3 \times 3的卷积层;然后因为该任务包含血管类和非血管类2类,所以在恢复特征尺寸后使用2个1 \times 1的卷积核进行卷积操作得到一个通道数为2的特征图,一个通道表示血管类,另一个通道表示非血管类;最后使用{{\rm{Softmax}}}层输出每个像素属于血管类的概率.

    眼底图像分割的过程如算法1所示.

    算法1. RCA-UNet模型的视网膜血管分割算法.

    输入:彩色眼底视网膜血管图像 {\boldsymbol{input}} \in {\mathbb{R}^{H \times W \times 3}} 、掩码图 {\boldsymbol{mask}} \in {\mathbb{R}^{H \times W \times 1}}

    输出:视网膜血管分割图 {\boldsymbol{output}} \in {\mathbb{R}^{H \times W \times 2}} .

    1)对视网膜血管原图 {\boldsymbol{input}} \in {\mathbb{R}^{H \times W \times 3}} 进行灰度化、自适应均衡化等预处理,得到视网膜血管预处理图 {\boldsymbol{input'}} \in {\mathbb{R}^{H \times W \times 1}}

    2)以步长patch\_stride从视网膜血管预处理图{\boldsymbol{input'}} \in {\mathbb{R}^{H \times W \times 1}}中进行视网膜血管图像子块{\boldsymbol{patch\_image}} \in {\mathbb{R}^{H' \times W' \times 1}}的划分,保证视网膜血管图像子块覆盖视网膜血管图;

    3)将视网膜血管图像子块 {\boldsymbol{patch\_image}} \in {\mathbb{R}^{H' \times W' \times 1}} 输入到训练好的RCAR-UNet模型中,得到视网膜血管子块图 {\boldsymbol{patch\_output}} \in {\mathbb{R}^{H' \times W' \times 2}} ,其具体步骤为:

    ①利用卷积操作和残差连接提取眼底视网膜血管特征.

    ②利用最大池化对眼底视网膜血管特征进行降维.

    ③利用粗糙通道注意力机制求得较为合理的Attention系数对收缩路径提取的视网膜血管特征进行准确重标定.

    ④利用上采样操作恢复视网膜血管特征图的尺寸,直到网络输入的视网膜血管图尺寸保持一致为止.

    ⑤采用2个1 \times 1的卷积核进行操作得到通道为2的视网膜血管特征图;

    ⑥利用Softmax层得到视网膜血管特征图中的每个像素点属于血管类别和非血管类别的概率;

    ⑦设置阈值\theta =0.5,如果视网膜血管特征图中的像素点属于血管类的概率值大于\theta ,则属于血管类;反之,属于非血管类.

    4)将视网膜血管图像子块{\boldsymbol{patch\_output}} \in {\mathbb{R}^{H' \times W' \times 2}}按照提取顺序进行图像拼接,得到完整的视网膜血管分割图 {\boldsymbol{output'}} \in {\mathbb{R}^{H' \times W' \times 2}}

    5)对视网膜血管掩码 {\boldsymbol{mask}} \in {\mathbb{R}^{H \times W \times 1}} 进行通道的修改,使其通道数与视网膜血管网络分割图{\boldsymbol{output'}} \in {\mathbb{R}^{H' \times W' \times 2}}保持一致,得到视网膜血管掩码图{\boldsymbol{mask'}} \in {\mathbb{R}^{H \times W \times 2}}

    6)利用视网膜血管掩码从视网膜血管网络输出图中抠出眼球部分,得到最终视网膜血管分割图 {\boldsymbol{output}} \in {\mathbb{R}^{H \times W \times 2}} .

    RCA-UNet模型的时间复杂度可以表示为

    T\sim O\left( {\sum\limits_{i = 1}^N {F_i^2 \times } K_i^2 \times {C_{i - 1}} \times {C_i}} \right)\text{.} (16)

    时间复杂度与每一层的输出特征图尺寸{F_i}、每一个卷积核的尺寸{K_i}、上一层输出特征图的通道数{C_{i - 1}}以及当前层输出特征图的通道数{C_i}有关,与此同时每一层特征图的输出尺寸F与输入尺寸X、卷积核的步长stride、填充的数量padding以及卷积核的尺寸K等相关,可表示为

    F = (X - K + 2 \times padding)/stride + 1. (17)

    DRIVE数据集[39-41]发布于2004年,包含40张格式为tif. 尺寸为565×584的彩色眼底图像,每张图像包含2位专家手工标注的金标准图,并且自带视网膜血管的掩膜图.

    Stare数据集[39-41]是1975年Michael Goldbaum 发起的项目,用来进行视网膜血管分割的彩色眼底图数据库,包括20张格式为ppm、尺寸为605×700的彩色眼底图像,同样每张图像对应2位专家手工标注的金标准图,相对应的掩膜需要自己通过代码进行掩膜的设置.

    CHASE DB1数据集[39-41]包括从14名学童的双眼中拍摄的28张格式为jpg、尺寸为999×960的视网膜图像. 每张图像具有2位专家的手工分割标签,相对应的掩膜需要自己通过代码进行掩膜的设置. 一般情况下将前20张图像用于训练,其余8张图像用于测试.

    3个眼底视网膜血管图像数据集信息如表2所示.

    表  2  眼底视网膜血管图像数据集信息
    Table  2.  Information of Retinal Vessels Image Datasets
    数据集原图金标准图掩码图
    DRIVE
    Stare
    CHASE DB1
    下载: 导出CSV 
    | 显示表格

    由于眼底图像照明不均匀以及血管与背景之间的对比度较低等因素,为了捕获细小血管的更多特征并提高血管分割的准确性,需要将输入网络的眼底图像进行预处理. 首先对RGB图像进行通道分离,发现G通道的血管与背景之间的对比度最高,选取RGB图像的G通道完成图像的灰度变换,对视网膜血管灰度图像进行归一化;然后采用对比度受限的自适应直方图均衡化,在不放大眼底视网膜图像噪声的情况下增强视网膜血管与背景之间的对比度,以使眼底图像中血管的结构和特征更容易受到关注;最后使用Gamma变换进行图像增强,对过白或者过暗的图像区域进行校正. 表3分别表示原图和预处理之后的图像.

    表  3  原图与预处理图信息
    Table  3.  Information of Original Images and Preprocessed Images
    数据集原图G通道均衡化伽马变换
    DRIVE
    Stare
    CHASE DB1
    下载: 导出CSV 
    | 显示表格

    由于深度卷积神经网络的复杂性,训练一个深度卷积神经网络进行图像分割,通常需要大量标签图像,然而,只有几十张视网膜血管图像具有像素级的标签,因此,设计用于视网膜血管分割的深度学习模型容易出现过拟合现象. 对此,本文采用对原图进行分块的方式进行数据扩充,将训练图像以及相应的掩码图划分为大小为48×48的图像子块,从中随机选取一定数量的图像子块数,图7中展示了整合部分的图像子块以及相对应的掩码子块图.

    图  7  图像子块以及相对应的掩码子块图
    Figure  7.  Sub-image and corresponding mask sub-image

    本研究使用基于Windows10系统的工作站,运行在Intel® Core™ i7-10750H CPU @2.60GHz上,拥有16GB内存和NVidia GeForce RTX 2060 6.0GB GPU,使用TensorFlow和Keras等框架构建文中所用的网络模型.在模型的训练过程中,采用交叉熵损失函数作为训练的损失函数,批大小{ batch\_size } 设置为32,模型迭代的次数N\_{epochs }设置为50,模型初始学习率设为0.01,选择SGD随机梯度下降法作为优化器对模型的参数进行更新.

    视网膜血管分割任务的实质是像素级的分类,判断像素点是血管类还是非血管类.血管是需要检测分割的目标,称作正类;非血管类的部位,称作负类.分割算法的结果与真实值比较可以得到混淆矩阵中的真阳性{N_{{{\rm{TP}}} }}、假阳性{N_{{{\rm{FP}}} }}、假阴性{N_{{\rm{TN}}}}、真阴性{N_{{\rm{FN}}}},如表4所示.其中{N_{{{\rm{TP}}} }}是将血管类正确分类为血管类的像素点数,{N_{{{\rm{FP}}} }}是将非血管类错分为血管类的像素点数,{N_{{\rm{TN}}}}是将非血管类分类为非血管类的像素点数,{N_{{\rm{FN}}}}是将血管类错分为非血管类的像素点数.

    表  4  混淆矩阵
    Table  4.  Confusion Matrix
    真实值预测为正类(血管)预测为负类(背景)
    标签为正类(血管){N_{ {{\rm{TP}}} } }{N_{{\rm{FN}}} }
    标签为负类(背景){N_{ {{\rm{FP}}} } }{N_{{\rm{TN}}} }
    下载: 导出CSV 
    | 显示表格

    为了评价视网膜血管分割算法的好坏,选用准确率Acc、灵敏度S en、特异性S pe、精确率Pre等评价指标,其中Acc表示将血管类和背景类分类正确的概率,S en表示将血管类分类正确的概率,S pe表示将背景类分类正确的概率,Pre表示预测为血管类的样本中真正为血管类所占的比例.为了进一步地评估分割模型的性能,利用Jaccard相似度描述金标准图truth与分割图result之间的相似性和差异性,Jaccard值越大说明相似度越高.各评价指标公式表示为:

    Acc = \frac{{{N_{{{\rm{TP}}} }} + {N_{{\rm{TN}}}}}}{{{N_{{\rm{TP}}}} + {N_{{{\rm{TN}}} }} + {N_{{{\rm{FP}}} }} + {N_{{\rm{FN}}}}}}, (18)
    S en = \frac{{{N_{{\rm{TP}}}}}}{{{N_{{{\rm{TP}}} }} + {N_{{{\rm{FN}}} }}}}, (19)
    S pe = \frac{{{N_{{\rm{TN}}}}}}{{{N_{{{\rm{TN}}} }} + {N_{{{\rm{FP}}} }}}}, (20)
    Pre = \frac{{{N_{{\rm{TP}}}}}}{{{N_{{{\rm{TP}}} }} + {N_{{\rm{FP}}}}}}, (21)
    J(truth,result) = \frac{{\left| {truth \cap result} \right|}}{{\left| {truth \cup result} \right|}}, (22)
    {F_1} = 2 \times \frac{{Pre \times S en}}{{Pre + S en}}. (23)

    本文所提模型是以U-Net网络为基础网络,并针对视网膜血管的独特特性,将U-Net网路和本文所提的粗糙通道注意力机制相融合.首先,为了验证基础网络U-Net的有效性,选取目前较常使用的分割网络FCN和Seg-Net[42]在眼底图像视网膜血管DRIVE,Stare,CHASE DB1数据集上进行对比实验,从准确率Acc、灵敏度S en、特异性S pe、精确率Pre、Jaccard相似度J等评价指标对实验结果进行比较.

    FCN,Seg-Net,U-Net模型在视网膜血管的3个数据集上的对比结果分别如表5~7所示,从表5~7中可以发现,U-Net模型具有更好的表现,总体表现优于其他2个模型.更具体地说,U-Net具有更高的分割准确率,对血管像素具有更好的识别能力,所得分割图和金标准图具有更高的相似度,对背景像素的识别能力也是具有竞争力的,综合考虑分割精度和敏感度,取得更高的{F_1}值.

    表  5  DRIVE数据集对比结果
    Table  5.  Comparison Results on DRIVE Dataset
    方法AccS enS pePreJ{F_1}
    FCN0.90010.25890.99460.87540.24970.3996
    Seg-Net0.94400.69500.97740.82220.61930.7649
    U-Net0.95090.70310.98710.88820.64590.7849
    注:黑体数字表示最优值.
    下载: 导出CSV 
    | 显示表格
    表  6  Stare数据集对比结果
    Table  6.  Comparison Results on Stare Dataset
    方法AccS enS pePreJ{F_1}
    FCN0.92040.26810.99780.93790.26350.4171
    Seg-Net0.92890.36080.99630.92080.34990.5185
    U-Net0.95260.61240.99290.91180.57820.7327
    注:黑体数字表示最优值.
    下载: 导出CSV 
    | 显示表格
    表  7  CHASE DB1数据集对比结果
    Table  7.  Comparison Results on CHASE DB1 Dataset
    方法AccS enS pePreJ{F_1}
    FCN0.93400.47560.97840.68090.38890.5600
    Seg-Net0.93770.54390.97580.68560.43530.6066
    U-Net0.95170.63650.98220.76670.53790.6995
    注:黑体数字表示最优值.
    下载: 导出CSV 
    | 显示表格

    上述结果表明Seg-Net和U-Net这类基于编解码结构的网络在医学图像分割上具有更好的竞争力,而增加了跳跃连接结构的U-Net在上采样过程中将对称层的特征图进行通道上的拼接,实现低层特征和高级特征的信息融合使得网络能够提取和保留更多视网膜血管局部细节信息,从而提高了图像分割精度.基于此,选用U-Net作为基础网络具有一定的有效性.

    为了进一步验证本文所提粗糙通道注意力机制的有效性,选取U-Net,Attention U-Net,RCA-UNet在3个眼底视网膜血管数据集中进行对比,从准确率Acc、灵敏度S en、特异性S pe、精确率Pre、Jaccard相似度J等评价指标对实验结果进行比较,实验结果分别如表8~10所示.实验结果表明:在3个数据集中 RCA-UNet模型都具有相对较好的性能.具体而言,RCA-UNet模型具有较高的灵敏度S en,对血管类具有更好的识别能力,在3个数据集上相对于U-Net模型提高了2.97%,2.9%,10.33%,相对于Attention U-Net模型提高了1.35%,1.23%,0.54%.在考虑模型性能的时候,单纯地追求精度Pre或者灵敏度S en的提升并没有太大作用,在实际分割任务中,需要结合正负样本比进行综合评价,对此从精度Pre与灵敏度S en的调和平均值{F_1}可以看出RCA-UNet模型具有较好的性能,提高0.19%~1.43%,0.88%~2.03%,1.24%~4.71%. 另外,RCAR-UNet所得的分割图与金标准的Jaccard相似度更高,相较于其他模型相似度提高了0.26%~1.96%,1.12%~2.57%和1.57%~5.78%. 上述实验结果清楚地表明利用全局最大池化和全局平均池化构建上下近似神经元的粗糙通道注意力机制的有效性. 分析其原因在于考虑了特征通道之间的依赖关系,借助粗糙集的上下近似原理,利用全局最大池化和全局平均池化分别构建上下近似神经元,并赋予一定的自适应权重,得到较为合理的Attention系数,并对特征图进行相应的重标定操作,使得在上采样的过程中,得到更加细致的特征信息.

    表  8  DRIVE数据集对比结果
    Table  8.  Comparison Results on DRIVE Dataset
    方法AccS enS pePreJ{F_1}
    U-Net0.95090.70310.98710.88820.64590.7849
    Attention U-Net0.95270.72970.98530.87860.66290.7973
    RCA-UNet0.95310.73280.98520.87880.66550.7992
    RCAR-UNet0.95370.74870.98360.86960.67320.8047
    注:黑体数字表示最优值.
    下载: 导出CSV 
    | 显示表格
    表  9  Stare数据集对比结果
    Table  9.  Comparison Results on Stare Dataset
    方法 { Acc } S en{ S pe } { Pre } J F_{1}
    U-Net0.95260.61240.99290.91180.57820.7327
    Attention U-Net0.95410.62910.99270.91090.59270.7442
    RCA-UNet0.95530.64140.99260.91190.60390.7530
    RCAR-UNet0.95940.69790.99050.90690.64610.7850
    注:黑体数字表示最优值.
    下载: 导出CSV 
    | 显示表格

    为了在说明粗糙通道注意力机制的有效性的同时,进一步验证残差连接的有效性,本文将RCA-UNet和RCAR-UNet在3个数据集上进行对比实验,实验结果分别如表8~10所示. 实验结果表明,本文所提模型RCAR-UNet能够得到更好的视网膜血管分割效果.从3个表中可以发现,在3个视网膜血管数据集中各个评价指标都有所提升. 从表8中可以很直观地看出在DRIVE数据集上,RCAR-UNet相对于RCA-UNet模型,Acc提高了0.06%,S en提高了1.59%,相似度J提高了0.77%,{F_1}提高了0.55%;从表9中可以看出,RCAR-UNet在AccS enJ{F_1}指标上都有明显的提升,分别提升了0.41%,5.65%,4.22%,3.2%;从表10中可以看出,RCAR-UNet在CHASE DB1数据集上相对于RCA-UNet模型的提升不是很大,但是都有所改善,Acc提高了0.1%,S en提高了0.33%,Pre提高了2.11%,Jaccard相似度提高0.26%,{F_1}指标提高了0.04%. 上述实验结果充分说明模型中添加残差连接实现特征映射的有效性,将低层特征直接传递给高层特征的短跳跃连接方式,不仅丰富网络特征提取,并且有助于训练模型时梯度的反向传播,可有效解决网络退化问题.

    表  10  CHASE DB1数据集对比结果
    Table  10.  Comparison Results on CHASE DB1 Dataset
    方法 { Acc } S en{ S pe } { Pre } J F_{1}
    U-Net0.95170.63650.98220.76670.53790.6995
    Attention U-Net0.95300.73440.97420.73400.58000.7342
    RCA-UNet0.95560.73980.97650.75360.59570.7466
    RCAR-UNet0.95660.74750.97980.77470.59830.7470
    注:黑体数字表示最优值.
    下载: 导出CSV 
    | 显示表格

    最后,本文还采用ROC曲线和PR曲线进行模型的评价. ROC曲线是对假阳性率和真阳性率的安全考虑,横坐标表示假阳性率,纵坐标表示真阳性率;PR曲线是对召回率和精确率的综合考虑,其横坐标表示召回率Recall(和灵敏度S en一样),纵坐标表示精确率Pre.曲线与坐标系围成的面积表示AUC面积,AUC值越大,表明模型具有更好的性能. 4个网络模型在不同数据集上的ROC曲线和PR曲线对比实验结果分别如图8图9所示.

    图  8  不同模型在不同数据集上的ROC曲线对比
    Figure  8.  Comparison of ROC curves of different models on different datasets
    图  9  不同模型在不同数据集上的PR曲线对比
    Figure  9.  Comparison of PR curves of different models on different datasets

    图8中可以看出,本文所提模型RCAR-UNet在3个数据集上的ROC曲线的AUC值为0.9759,0.9801,0.9695,相对于经典U-Net模型,提高了0.73%,0.93%,2.05%. ROC曲线的纵坐标为真阳性率,表示实际正样本中被预测成正样本的占比,也就是实际正样本的预测正确率,所以是越大越好;而其横坐标为假阳性率,表示实际负样本中被预测成正样本的占比,也就是实际正样本的预测错误率,所以是越小越好. 最为理想的点是(0,1),综上所述,ROC曲线的AUC值越大,性能越好,所以RCAR-UNet在3个眼底视网膜血管数据集上具有较好的性能. PR曲线描述的是精准率与召回率的关系,在分割过程中,期望精确率和召回率值均相对较高,达到较好的平衡点,同样利用曲线与坐标系围成的AUC面积对模型进行评估,图9结果表明RCAR-UNet具有较好的性能. RCAR-UNet在3个数据集上的AUC值为0.9003,0.8980,0.8250,相对于其他模型都有所提高.

    综上所述,RCAR-UNet相对于经典U-Net,Attention U-Net等模型能够得到更好的眼底视网膜血管分割精度,分析其主要原因在于:RCAR-UNet在编码-解码的U-Net模型主干上,利用粗糙集中上下近似理论构建粗糙上下近似神经元,对眼底视网膜血管特征通道重要性进行区分,对视网膜血管特征进行准确重标定,并融合残差连接,进行特征的映射.

    为了进一步直观地说明RCAR-UNet对于视网膜血管分割具有较好的分割效果,将之与U-Net,Attention U-Net等模型的分割图进行比较,各模型分割效果图如图10所示. 从视网膜血管分割效果图可以直观看出,本文所提RCAR-UNet模型的分割结果和专家分割标准图基本一致,特别是在矩形框区域内细微血管的分割上有更好的效果.

    图  10  各模型视网膜血管分割效果图
    Figure  10.  Segmentation effect diagram of retinal blood vessels of each model

    针对视网膜血管结构复杂、血管较细、易受光照影响等,本文考虑了特征通道之间的关系,引入一种新的通道注意力机制来增加网络的鉴别能力. 具体而言:首先在编码-解码结构的U-Net模型上利用粗糙集的上下近似概念构建粗糙注意力模块,对注意力系数设置上下限,利用全局最大池化构造上神经元作为注意力系数的上限,利用全局平均池化构造下神经元作为注意力系数的下限,通过赋予上下限一定的权重系数并求和得到较具语义的注意力系数,该注意力系数不仅包含全局信息也具有了一定的局部信息;然后引入残差连接,实现将低层特征直接传播到高层,在一定程度上解决了网络退化的问题,以此提高模型性能;最后在3个眼底视网膜血管数据集进行网络模型性能验证,实验结果表明本文所提网络RCAR-UNet模型能够分割出视网膜血管末端的细小分支,得到较好的视网膜血管分割精度. 我们会进一步研究将粗糙集理论融合到深度神经网络模型的卷积和池化层中,处理图像特征中不确定性、不精确性信息.

    作者贡献声明:孙颖提出了算法的核心思想,设计了实验方案,完成实验并撰写论文初稿;丁卫平提出了整个算法的框架并对整个算法思想进行完善,修改了论文;黄嘉爽、鞠恒荣完善了算法的思路,指导了论文写作并修改论文;李铭、耿宇协助实验数据的处理并修改论文.

  • 图  1   Attention U-Net网络结构

    Figure  1.   Attention U-Net network architecture

    图  2   注意力门结构

    Figure  2.   Attention gate architecture

    图  3   粗糙神经元结构

    Figure  3.   Rough neuron architecture

    图  4   通道注意力机制

    Figure  4.   Channel attention mechanism

    图  5   RCAR-UNet模型结构

    Figure  5.   Architecture of RCAR-UNet

    图  6   粗糙通道注意力机制

    Figure  6.   Rough channel attention mechanism

    图  7   图像子块以及相对应的掩码子块图

    Figure  7.   Sub-image and corresponding mask sub-image

    图  8   不同模型在不同数据集上的ROC曲线对比

    Figure  8.   Comparison of ROC curves of different models on different datasets

    图  9   不同模型在不同数据集上的PR曲线对比

    Figure  9.   Comparison of PR curves of different models on different datasets

    图  10   各模型视网膜血管分割效果图

    Figure  10.   Segmentation effect diagram of retinal blood vessels of each model

    表  1   基于粗糙通道注意力U-Net模型结构

    Table  1   U-Net Model Architecture Based on Rough Channel Attention

    编号模块图像尺寸
    1输入模块输入层48 \times 48 \times 1
    2编码模块 1卷积层1(3 \times 3卷积核,激活函数ReLu)48 \times 48 \times 32
    卷积层2(3 \times 3卷积核,激活函数ReLu)48 \times 48 \times 32
    残差连接48 \times 48 \times 32
    2 \times 2最大池化层, 步长为224 \times 24 \times 32
    3编码模块 2卷积层3(3 \times 3卷积核,激活函数ReLu)24 \times 24 \times 64
    卷积层4(3 \times 3卷积核,激活函数ReLu)24 \times 24 \times 64
    残差连接24 \times 24 \times 64
    2 \times 2最大池化层, 步长为212 \times 12 \times 64
    编码模块3卷积层5(3 \times 3卷积核,激活函数ReLu)12 \times 12 \times 128
    4卷积层6(3 \times 3卷积核,激活函数ReLu)12 \times 12 \times 128
    残差连接12 \times 12 \times 128
    5解码模块12 \times 2上采样24 \times 24 \times 128
    拼接层1上采样1(24 \times 24 \times 128
    粗糙通道注意力1(24 \times 24 \times 64
    24 \times 24 \times 192
    卷积层7(3 \times 3卷积核,激活函数ReLu)24 \times 24 \times 64
    卷积层8(3 \times 3卷积核,激活函数ReLu)24 \times 24 \times 64
    残差连接24 \times 24 \times 64
    6解码模块22 \times 2上采样48 \times 48 \times 64
    拼接层2上采样2(48 \times 48 \times 64
    粗糙通道注意力2(48 \times 48 \times 32
    48 \times 48 \times 96
    卷积层9(3 \times 3卷积核,激活函数ReLu)48 \times 48 \times 32
    卷积层10(3 \times 3卷积核,激活函数ReLu)48 \times 48 \times 32
    残差连接48 \times 48 \times 32
    7卷积层11(1 \times 1卷积核)48 \times 48 \times 2
    8Softmax激活层48 \times 48 \times 2
    9输出模块输出层48 \times 48 \times 2
    下载: 导出CSV

    表  2   眼底视网膜血管图像数据集信息

    Table  2   Information of Retinal Vessels Image Datasets

    数据集原图金标准图掩码图
    DRIVE
    Stare
    CHASE DB1
    下载: 导出CSV

    表  3   原图与预处理图信息

    Table  3   Information of Original Images and Preprocessed Images

    数据集原图G通道均衡化伽马变换
    DRIVE
    Stare
    CHASE DB1
    下载: 导出CSV

    表  4   混淆矩阵

    Table  4   Confusion Matrix

    真实值预测为正类(血管)预测为负类(背景)
    标签为正类(血管){N_{ {{\rm{TP}}} } }{N_{{\rm{FN}}} }
    标签为负类(背景){N_{ {{\rm{FP}}} } }{N_{{\rm{TN}}} }
    下载: 导出CSV

    表  5   DRIVE数据集对比结果

    Table  5   Comparison Results on DRIVE Dataset

    方法AccS enS pePreJ{F_1}
    FCN0.90010.25890.99460.87540.24970.3996
    Seg-Net0.94400.69500.97740.82220.61930.7649
    U-Net0.95090.70310.98710.88820.64590.7849
    注:黑体数字表示最优值.
    下载: 导出CSV

    表  6   Stare数据集对比结果

    Table  6   Comparison Results on Stare Dataset

    方法AccS enS pePreJ{F_1}
    FCN0.92040.26810.99780.93790.26350.4171
    Seg-Net0.92890.36080.99630.92080.34990.5185
    U-Net0.95260.61240.99290.91180.57820.7327
    注:黑体数字表示最优值.
    下载: 导出CSV

    表  7   CHASE DB1数据集对比结果

    Table  7   Comparison Results on CHASE DB1 Dataset

    方法AccS enS pePreJ{F_1}
    FCN0.93400.47560.97840.68090.38890.5600
    Seg-Net0.93770.54390.97580.68560.43530.6066
    U-Net0.95170.63650.98220.76670.53790.6995
    注:黑体数字表示最优值.
    下载: 导出CSV

    表  8   DRIVE数据集对比结果

    Table  8   Comparison Results on DRIVE Dataset

    方法AccS enS pePreJ{F_1}
    U-Net0.95090.70310.98710.88820.64590.7849
    Attention U-Net0.95270.72970.98530.87860.66290.7973
    RCA-UNet0.95310.73280.98520.87880.66550.7992
    RCAR-UNet0.95370.74870.98360.86960.67320.8047
    注:黑体数字表示最优值.
    下载: 导出CSV

    表  9   Stare数据集对比结果

    Table  9   Comparison Results on Stare Dataset

    方法 { Acc } S en{ S pe } { Pre } J F_{1}
    U-Net0.95260.61240.99290.91180.57820.7327
    Attention U-Net0.95410.62910.99270.91090.59270.7442
    RCA-UNet0.95530.64140.99260.91190.60390.7530
    RCAR-UNet0.95940.69790.99050.90690.64610.7850
    注:黑体数字表示最优值.
    下载: 导出CSV

    表  10   CHASE DB1数据集对比结果

    Table  10   Comparison Results on CHASE DB1 Dataset

    方法 { Acc } S en{ S pe } { Pre } J F_{1}
    U-Net0.95170.63650.98220.76670.53790.6995
    Attention U-Net0.95300.73440.97420.73400.58000.7342
    RCA-UNet0.95560.73980.97650.75360.59570.7466
    RCAR-UNet0.95660.74750.97980.77470.59830.7470
    注:黑体数字表示最优值.
    下载: 导出CSV
  • [1] 梁礼明,黄朝林,石霏,等. 融合形状先验的水平集眼底图像血管分割[J]. 计算机学报,2018,41(7):1678−1692 doi: 10.11897/SP.J.1016.2018.01678

    Liang Liming, Huang Chaolin, Shi Fei, et al. Vessels segmentation of fundus images with level set fusion with shape priors[J]. Chinese Journal of Computers, 2018, 41(7): 1678−1692 (in Chinese) doi: 10.11897/SP.J.1016.2018.01678

    [2]

    Wu Yicheng, Xia Yong, Song Yang, et al. NFN+: A novel network followed network for retinal vessel segmentation[J]. Neural Networks, 2020, 126: 153−162 doi: 10.1016/j.neunet.2020.02.018

    [3]

    Li Xiang, Jiang Yuchen, Li Minglei, et al. Lightweight attention convolutional neural network for retinal vessel image segmentation[J]. IEEE Transactions on Industrial Informatics, 2021, 17(3): 1958−1967 doi: 10.1109/TII.2020.2993842

    [4]

    Cheung C Y, Xu Dejiang, Cheng Chingyun, et al. A deep-learning system for the assessment of cardiovascular disease risk via the measurement of retinal-vessel calibre[J]. Nature Biomedical Engineering, 2021, 5(6): 498−508

    [5]

    Abràmoff M D, Garvin M K, Sonka M. Retinal imaging and image analysis[J]. IEEE Reviews in Biomedical Engineering, 2010, 3: 169−208 doi: 10.1109/RBME.2010.2084567

    [6] 陈加,陈亚松,李伟浩,等. 深度学习在视频对象分割中的应用与展望[J]. 计算机学报,2021,44(3):609−631 doi: 10.11897/SP.J.1016.2021.00609

    Chen Jia, Chen Yasong, Li Weihao, et al. Application and prospect of deep learning in video object segmentation[J]. Chinese Journal of Computers, 2021, 44(3): 609−631 (in Chinese) doi: 10.11897/SP.J.1016.2021.00609

    [7]

    Sun Liang, Shao Wei, Wang Mingliang, et al. High-order feature learning for multi-atlas based label fusion: Application to brain segmentation with MRI[J]. IEEE Transactions on Image Processing, 2019, 29: 2702−2713

    [8]

    Sun Liang, Shao Wei, Zhang Daoqiang, et al. Anatomical attention guided deep networks for ROI segmentation of brain MR images[J]. IEEE Transactions on Medical Imaging, 2019, 39(6): 2000−2012

    [9]

    Hesamian M H, Jia Wenjing, He Xiangjian, et al. Deep learning techniques for medical image segmentation: Achievements and challenges[J]. Journal of Digital Imaging, 2019, 32(4): 582−596 doi: 10.1007/s10278-019-00227-x

    [10]

    Shelhamer E, Long J, Darrell T. Fully convolutional networks for semantic segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 39(4): 640−651

    [11]

    Sun Jindong, Peng Yanjun, Guo Yanfei, et al. Segmentation of the multimodal brain tumor image used the multi-pathway architecture method based on 3D FCN[J]. Neurocomputing, 2021, 423: 34−45 doi: 10.1016/j.neucom.2020.10.031

    [12]

    Ding Henghui, Jiang Xudong, Shuai Bing, et al. Semantic segmentation with context encoding and multi-path decoding[J]. IEEE Transactions on Image Processing, 2020, 29: 3520−3533 doi: 10.1109/TIP.2019.2962685

    [13]

    Wu Congzhong, Sun Jun, Wang Jing, et al. Encoding-decoding network with pyramid self-attention module for retinal vessel segmentation[J]. International Journal of Automation and Computing, 2021, 18(6): 973−980 doi: 10.1007/s11633-020-1277-0

    [14] 何慧,陈胜. 改进预训练编码器U-Net模型的PET肿瘤自动分割[J]. 中国图象图形学报,2020,25(1):171−179 doi: 10.11834/jig.190058

    He Hui, Chen Sheng. Improved pretrained encoder U-Net model for automatic segmentation of PET tumors[J]. Chinese Journal of Image and Graphics, 2020, 25(1): 171−179 (in Chinese) doi: 10.11834/jig.190058

    [15]

    Rundo L, Han C, Nagano Y, et al. USE-Net: Incorporating squeeze-and-excitation blocks into U-Net for prostate zonal segmentation of multi-institutional MRI datasets[J]. Neurocomputing, 2019, 365: 31−43 doi: 10.1016/j.neucom.2019.07.006

    [16]

    Jin Qiangguo, Meng Zhaopeng, Pham T D, et al. DUNet: A deformable network for retinal vessel segmentation[J]. Knowledge-Based Systems, 2019, 178: 149−162 doi: 10.1016/j.knosys.2019.04.025

    [17]

    Basiri M E, Nemati S, Abdar M, et al. ABCDM: An attention-based bidirectional CNN-RNN deep model for sentiment analysis[J]. Future Generation Computer Systems, 2021, 115: 279−294 doi: 10.1016/j.future.2020.08.005

    [18]

    Haut J M, Paoletti M E, Plaza J, et al. Visual attention-driven hyperspectral image classification[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(10): 8065−8080 doi: 10.1109/TGRS.2019.2918080

    [19]

    Guo Bangjun, He Xiuxiu, Lei Yang, et al. Automated left ventricular myocardium segmentation using 3D deeply supervised attention U-Net for coronary computed tomography angiography: CT myocardium segmentation[J]. Medical Physics, 2020, 47(4): 1775−1785 doi: 10.1002/mp.14066

    [20]

    Cui Hengfei, Yuwen Chang, Jiang Lei, et al. Multiscale attention guided U-Net architecture for cardiac segmentation in short-axis MRI images[J]. Computer Methods and Programs in Biomedicine, 2021, 206: 106142

    [21]

    Guo Changlu, Szemenyei M, Yi Yugen, et al. SA-UNet: Spatial attention U-Net for retinal vessel segmentation[C] //Proc of the 25th Int Conf on Pattern Recognition (ICPR2020). Piscataway, NJ: IEEE, 2021: 1236−1242

    [22]

    Tang Xianlun, Zhong Bing, Peng Jiangping, et al. Multi-scale channel importance sorting and spatial attention mechanism for retinal vessels segmentation[J]. Applied Soft Computing, 2020, 93: 106353

    [23]

    Gu Ran, Wang Guotian, Song Tao, et al. CA-Net: Comprehensive attention convolutional neural networks for explainable medical image segmentation[J]. IEEE Transactions on Medical Imaging, 2020, 40(2): 699−711

    [24]

    Mou Lei, Zhao Yitian, Chen Li, et al. CS-Net: Channel and spatial attention network for curvilinear structure segmentation[C] //Proc of the Int Conf on Medical Image Computing and Computer-Assisted Intervention. Berlin: Springer, 2019: 721−730

    [25]

    Pawlak Z. Rough sets[J]. International Journal of Computer and Information Sciences, 1982, 11(5): 341−356 doi: 10.1007/BF01001956

    [26] 刘文,米据生,孙妍. 一种新的犹豫模糊粗糙近似算子的公理刻画[J]. 计算机研究与发展,2021,58(9):2062−2070 doi: 10.7544/issn1000-1239.2021.20200517

    Liu Wen, Mi Jusheng, Sun Yan. Axiomatic characterization of new hesitant fuzzy rough approximation operators[J]. Journal of Computer Research and Development, 2021, 58(9): 2062−2070 (in Chinese) doi: 10.7544/issn1000-1239.2021.20200517

    [27] 苗夺谦,徐菲菲,姚一豫,等. 粒计算的集合论描述[J]. 计算机学报,2012,35(2):2351−2363

    Miao Duoqian, Xu Feifei, Yao Yiyu, et al. A set-theoretic description of granular computing[J]. Chinese Journal of Computers, 2012, 35(2): 2351−2363 (in Chinese)

    [28]

    Oktay O, Schlemper J, Folgoc L L, et al. Attention U-Net: Learning where to look for the pancreas[J]. arXiv preprint, arXiv: 1804.03999, 2018

    [29]

    Lingras P. Rough neural networks[C] //Proc of the 6th Int Conf on Information Processing and Management of Uncertainty in Knowledge Based Systems. Piscataway, NJ: IEEE, 1996: 1445 − 1450

    [30]

    Jelonek J, Krawiec K, Slowiński R. Rough set reduction of attributes, and their domains for neural networks[J]. Computational Intelligence, 1995, 11(2): 339−347 doi: 10.1111/j.1467-8640.1995.tb00036.x

    [31]

    Khodayar M, Kaynak O, Khodayar M E. Rough deep neural architecture for short-term wind speed forecasting[J]. IEEE Transactions on Industrial Informatics, 2017, 13(6): 2770−2779 doi: 10.1109/TII.2017.2730846

    [32]

    Cao Bin, Zhao Jianwei, Lv Zhihan, et al. Multiobjective evolution of fuzzy rough neural network via distributed parallelism for stock prediction[J]. IEEE Transactions on Fuzzy Systems, 2020, 28(5): 939−952 doi: 10.1109/TFUZZ.2020.2972207

    [33]

    Liao Hongmei, Ding Shifei, Wang Miaomiao, et al. An overview on rough neural networks[J]. Neural Computing and Applications, 2016, 27(7): 1805−1816 doi: 10.1007/s00521-015-2009-6

    [34]

    Jahangir H, Tayarani H, Baghali S, et al. A novel electricity price forecasting approach based on dimension reduction strategy and rough artificial neural networks[J]. IEEE Transactions on Industrial Informatics, 2019, 16(4): 2369−2381

    [35]

    Sabzalian M H, Mohammadzadeh A, Lin Shuyi, et al. A robust control of a class of induction motors using rough type-2 fuzzy neural networks[J]. Soft Computing, 2020, 24(13): 9809−9819 doi: 10.1007/s00500-019-04493-3

    [36] 宁尚明,滕飞,李天瑞. 基于多通道自注意力机制的电子病历实体关系抽取[J]. 计算机学报,2020,43(5):916−929 doi: 10.11897/SP.J.1016.2020.00916

    Ning Shangming, Teng Fei, Li Tianrui. Entity relation extraction from electronic medical records based on multi-channel self-attention mechanism[J]. Chinese Journal of Computers, 2020, 43(5): 916−929 (in Chinese) doi: 10.11897/SP.J.1016.2020.00916

    [37] 陈勇,刘曦,刘焕淋. 基于特征通道和空间联合注意机制的遮挡行人检测方法[J]. 电子与信息学报,2020,42(6):1486−1493 doi: 10.11999/JEIT190606

    Chen Yong, Liu Xi, Liu Huanlin. Occluded pedestrian detection method based on feature channel and spatial joint attention mechanism[J]. Journal of Electronics and Information, 2020, 42(6): 1486−1493 (in Chinese) doi: 10.11999/JEIT190606

    [38]

    Ma Jiayi, Zhang Hao, Yi Peng, et al. SCSCN: A separated channel-spatial convolution net with attention for single-view reconstruction[J]. IEEE Transactions on Industrial Electronics, 2019, 67(10): 8649−8658

    [39] 宋 杰,肖 亮,练智超,等. 基于深度学习的数字病理图像分割综述与展望[J]. 软件学报,2021,32(5):1427−1460 doi: 10.13328/j.cnki.jos.006205

    Song Jie, Xiao Liang, Lian Zhichao, et al. Review and prospect of digital pathology image segmentation based on deep learning[J]. Journal of Software, 2021, 32(5): 1427−1460 (in Chinese) doi: 10.13328/j.cnki.jos.006205

    [40] 梁礼明,刘博文,杨海龙,等. 基于多特征融合的有监督视网膜血管提取[J]. 计算机学报,2018,41(11):2566−2580 doi: 10.11897/SP.J.1016.2018.02566

    Liang Liming, Liu Bowen, Yang Hailong, et al. Supervised retinal vessel extraction based on multi-feature fusion[J]. Chinese Journal of Computers, 2018, 41(11): 2566−2580 (in Chinese) doi: 10.11897/SP.J.1016.2018.02566

    [41]

    Liskowski P, Krawiec K. Segmenting retinal blood vessels with deep neural networks[J]. IEEE Transactions on Medical Imaging, 2016, 35(11): 2369−2380 doi: 10.1109/TMI.2016.2546227

    [42]

    Badrinarayanan V, Kendall A, Cipolla R. SegNet: A deep convolutional encoder-decoder architecture for image segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(12): 2481−2495 doi: 10.1109/TPAMI.2016.2644615

  • 期刊类型引用(10)

    1. 秦涛,杜尚恒,常元元,王晨旭. ChatGPT的工作原理、关键技术及未来发展趋势. 西安交通大学学报. 2024(01): 1-12 . 百度学术
    2. 贺鑫,王晓燕,周启香,张文凯. 基于深度学习的眼底血管图像分割研究进展. 计算机系统应用. 2024(03): 12-23 . 百度学术
    3. 王海鹏,高自强,董佳俊,胡军,陈奕帆,丁卫平. 基于粗糙注意力融合机制与Group Transformer的视网膜血管分割网络. 南通大学学报(自然科学版). 2024(01): 28-37+48 . 百度学术
    4. 徐武,沈智方,范鑫豪,刘洋,徐天奇. 改进D-Linknet的眼底视网膜血管分割. 应用科技. 2024(02): 99-104+119 . 百度学术
    5. 张子旭,李嘉莹,栾鹏鹏,彭圆圆. 基于注意力机制的U-Net眼底图像分割算法. 计算机与现代化. 2024(05): 110-114 . 百度学术
    6. 符灵利,邱宇,张新晨. 基于改进U-Net多特征融合的血管分割. 计算机与现代化. 2024(06): 76-82 . 百度学术
    7. 窦全胜,李丙春,刘静,张家源. 基于多方向特征和连通性检测的眼底图像分割. 吉林大学学报(信息科学版). 2024(04): 690-699 . 百度学术
    8. 张文杰,宋艳涛,王克琪,张越. 基于自分块轻量化Transformer的医学图像分割网络. 计算机应用研究. 2024(11): 3502-3508 . 百度学术
    9. 徐光宪,冯春,马飞. 基于UNet的医学图像分割综述. 计算机科学与探索. 2023(08): 1776-1792 . 百度学术
    10. 梁礼明,阳渊,何安军,李仁杰. 跨级可变形Transformer编解码视网膜图像分割算法. 无线电工程. 2023(09): 1990-2001 . 百度学术

    其他类型引用(15)

图(10)  /  表(10)
计量
  • 文章访问数:  419
  • HTML全文浏览量:  94
  • PDF下载量:  197
  • 被引次数: 25
出版历程
  • 收稿日期:  2021-07-05
  • 修回日期:  2022-06-22
  • 网络出版日期:  2023-02-26
  • 刊出日期:  2023-03-31

目录

/

返回文章
返回