• 工作总结
  • 工作计划
  • 读后感
  • 发言稿
  • 心得体会
  • 思想汇报
  • 述职报告
  • 作文大全
  • 教学设计
  • 不忘初心
  • 打黑除恶
  • 党课下载
  • 主题教育
  • 谈话记录
  • 申请书
  • 对照材料
  • 自查报告
  • 整改报告
  • 脱贫攻坚
  • 党建材料
  • 观后感
  • 评语
  • 口号
  • 规章制度
  • 事迹材料
  • 策划方案
  • 工作汇报
  • 讲话稿
  • 公文范文
  • 致辞稿
  • 调查报告
  • 学习强国
  • 疫情防控
  • 振兴乡镇
  • 工作要点
  • 治国理政
  • 十九届五中全会
  • 教育整顿
  • 党史学习
  • 建党100周
  • 当前位置: 蜗牛文摘网 > 实用文档 > 公文范文 > 基于双向循环U-Net模型的脑卒中病灶分割方法

    基于双向循环U-Net模型的脑卒中病灶分割方法

    时间:2023-03-05 09:10:02 来源:千叶帆 本文已影响

    贾小慧,张雪英,王夙喆,回海生,李凤莲,张 华

    (1.太原理工大学 信息与计算机学院,太原 030024;
    2.山西医科大学第一医院 影像科,太原 030024)

    在全球范围内,脑卒中是致残率和致死率最高的脑血管疾病[1]。脑卒中发病时,可在核磁共振影像(magnetic resonance imaging,MRI)上观察病灶的大小和位置,对病灶的轮廓进行分割能够帮助医生实现迅速、准确的诊断。一直以来,手动分割是脑卒中病灶分割的金标准[2]。然而手动分割耗时耗力,精确性也容易受到专家技术水平的影响。因此,为了在临床实践中获得快速、准确的脑卒中病灶分割结果,迫切需要一种计算机辅助诊断脑卒中病灶的分割方法。

    近年来,卷积神经网络(convolutional neural networks,CNN)作为计算机视觉最具突破性的技术,在医学图像分析领域发展迅速[3-5]。CNN具有数据驱动的特性,需要规模较大的数据集进行训练。然而在医学图像处理中,医学图像的采集、标注和分析成本高昂。U-Net[6-8]的出现一定程度上解决了上述问题,它可以在少量数据标注的医学影像数据集的情况下很好地完成模型训练。U-Net通过跳跃连接在同层的编码和解码器之间建立联系,使网络能够学习到图像的全局和局部语义特征。对于脑卒中MRI影像,连续切片之间具有较强的相关和依赖特性,即序列性,而传统U-Net缺乏时序数据的信息挖掘能力,存在学习能力有限、特征利用率低等问题。

    综上,本文提出了一种基于双向循环U-Net模型(bi-directional recurrent U-Net model,BIRU-Net)的脑卒中病灶分割方法。首先,将U-Net中的部分卷积层替换为改进的卷积门限递归单元(attention convolutional gate recurrent unit,ACGRU).在提取图像特征的同时,利用ACGRU的长时记忆特性,捕获了脑部切片之间的序列联系;
    其次,将U-Net扩展至两路,分别采用正、反向切片序列作为输入,并将预测结果在前向传播输出端融合,兼顾了切片序列的历史信息和预测信息。最终将预测结果进行多视面融合,实现了对数据3D上下文信息的利用。实验结果表明,本文提出的BIRU-Net方法在训练过程中能够捕获更多的特征信息,得到更准确的分割输出。

    1.1 脑卒中影像数据预处理

    本文使用脑卒中发病后病变的解剖追踪(anatomical tracings of lesions after stroke,ATLAS)[9]的开源数据集。训练时将二维图像数据作为分割模型的输入,2D U-Net选取单个视面的单个切片作为一个样本,而BIRU-Net把有序、连续的切片组成的切片序列看成一个子序列样本。图1为整体实验流程。

    图1 实验流程

    其中切片序列数据生成分为以下步骤:

    1) 对3D MRI影像分别沿着横截面、冠状面和矢状面连续切片生成长度为H、W和D的切片序列,即子集A、C和S.

    2) 将上述三个切片序列进行正反方向序列数据样本提取,以横截面为例,切片序列序号为1到H.正向序列数据样本从切片1到H,根据g=1、l=1、m=9进行连续数据样本提取得到子序列样本,构成子集AF.其中g为样本选取间隔,l为步长,m为子序列长度。反向序列数据样本从切片H到1,同理提取子序列样本,即子集AR.冠状面和矢状面经过同样的操作,最终得到六个数据子集AF、AR、CF、CR和SF、SR.

    1.2 BIRU-Net网络结构

    图2为BIRU-Net网络的总体设计示意图。该模型搭建深度为4层(L=1,2,3,4,从上到下对应L=1到L=4).首先编码部分通过步长为2的卷积层实现对切片序列的特征提取与特征信号尺寸的逐级下采样,同时每层经过卷积操作后,将特征输入至ACGRU中。每个卷积层后连接着BN层和LeakyReLU激活层。通过编码部分模型学习到由低维到高维以及切片序列之间的图像特征,完成数据的表征。其次当L=4时,将编码部分ACGRU的最后一个状态的输出作为解码部分的初始状态的输入。解码部分通过步长为2的转置卷积层对每组特征提取后的特征图进行上采样,将得到的高级语义特征图的分辨率恢复到原图片的分辨率。当L=1,2,3时,通过跳跃连接将编码部分ACGRU的输出作为对应层数的ACGRU隐藏状态的输入,使得模型的解码部分在学习深层特征时能够利用浅层网络关注的纹理和边缘特征,有效地避免特征冗余。其中ACGRU结构图与双向融合训练在1.3与1.4节。

    图2 BIRU-Net网络结构示意图

    1.3 ACGRU模块

    卷积门控循环单元(convolutional gate recurrent unit,CGRU)[10]是一种常用于处理序列数据信息的深度网络单元,但其门控结构可能导致在一个较长的序列学习中遗漏关键信息。同时医学影像数据的空间上下文信息之间存在特征联系。因此本文提出改进的ACGRU,结构如图3所示。

    图3 ACGRU结构示意图

    ACGRU将输入{X1,X2,…,Xt}、隐藏状态{H1,H2,…,Ht}和zt、rt都扩展成为三维张量,后两维为空间信息(行和列),此时ACGRU的更新公式如下式(1)至(4)所示。

    rt=sigmoid([Xt·Xt-1,Ht-1]×Wr+br) .

    (1)

    zt=sigmoid([Xt·Xt-1,Ht-1]×Wz+bz) .

    (2)

    (3)

    (4)

    从式(1)-(2)中看出,ACGRU在复位门rt处,将Xt-1与Xt相乘,在输入中添加上一时刻的输入状态,再与上一时刻的隐藏状态Xt-1进行权重加和,使得复位门结合上一时刻的特征信息,进行滤波时关注关键信息,忽视冗余信息。在更新门zt处进行同样的操作,Xt·Xt-1用于调整更新门从而优化神经元结构。因此,ACGRU可以学习到更为有效的信息,保持较大的距离信息依赖性,预测精度更高。同时可以极好推断出序列数据间的特征联系,通过捕获跨序列的特征细节来解决强度相似性问题,达到高效学习的目的。

    1.4 双向融合训练与多视面融合预测

    在模型训练阶段,若输入只选取某一视面的单向序列数据,则模型学习到的上下文信息受限。因此,BIRU-Net同时输入正反两个方向的切片序列,如图2所示。在前向传播过程中,同时处理两个方向的数据依赖关系,在参数更新完毕后得到各自的预测标签进行特征融合,从而决定当前的反向传播,如式(5)-(6)所示。

    Fprob=σf(F×ωf+bf) .

    (5)

    Rprob=σr(R×ωr+br) .

    (6)

    式中:F、R表示正向、反向输入数据,Fprob、Rprob表示正向、反向输入数据经前向传播后的预测值;
    ω表示权重,b表示偏差项,σ表示激活函数。

    采取Add特征融合[11]操作融合正向数据和反向数据的预测值,公式如式(7).

    BIprob=Fprob⊕Rprob.

    (7)

    式中:BIprob为新的预测值。特征融合方式可以同时处理数据的前向依赖项和后向依赖项,增加了特征的细节信息。特征融合后,将BIprob作为特征向量与真实标签值进行误差对比,从而进行反向传播。

    在模型分割结果预测阶段,如图4。得到预测结果后,按照之前的切片顺序对2D切片结果进行顺序堆叠重组,得到各视面对应的3D病灶预测结果。数据子集A、C、S的3D病灶预测结果分别为Aprob、Cprob和Sprob,如式(8).

    图4 多视面融合预测

    (8)

    其中,x,y,z分别代表三个坐标轴,px、py和pz分别代表各3D病灶坐标轴对应的预测结果概率值,n代表测试集数据的样本个数。

    依照软投票融合方法实现多视面融合,融合时保证3D预测结果和原始空间的体素一一对应。3D病灶预测结果的本质为3D概率矩阵,体素值范围为[0,1],本文以0.5为阈值判定概率矩阵中每个体素值是否为病灶。Tprob为融合Aprob、Cprob和Sprob后的结果,如式(9).

    (9)

    式中:1为病灶,0为非病灶。

    2.1 数据集

    ATLAS数据集的每个影像由脑卒中患者的T1加权解剖MRI及对应的手动分割的病灶(真实标签)组成。真实标签由脑神经科专家在严格一致的数据标注流程下进行了精确的手动标注,以确保数据分割的准确。本文对3D MRI影像数据进行裁剪后分辨率为208×176×176(X×Y×Z).数据生成时,对3D MRI影像数据分别沿着横截面、冠状面和矢状面进行切片处理,得到的2D切片分辨率分别为208×176(X×Y)、208×176(X×Z)和176×176(Y×Z).

    2.2 实验参数设置

    2.2.1训练环境及参数

    软件环境:操作系统为Windows 10,深度学习框架为Pytorch,编程语言环境为Python 3.6.

    硬件环境:使用戴尔XPS 8930台式电脑,其处理器(CPU)为英特尔Core i7-9700@3.00 GHz八核,内存(RAM)为8 GB,显卡为NVIDIA GeForce RTX 2080.

    其他训练参数:优化器为Adam,初始学习率为0.000 1,批量大小设置为4.

    2.2.2损失函数

    二进制交叉熵函数[12](binary cross entropy,BCE)被广泛用于图像像素级分割。它用于度量给定随机变量或事件集的两个概率分布之间的差异,当BCE越小时,表明两个概率分布之间的差异越小。公式为:

    (10)

    骰子损失(dice loss,DL)[13]用于类不平衡数据集,特别是医学图像的病灶分割任务。实际应用中,DL值越小,所训练模型的预测性能越好。公式为:

    (11)

    本文所用损失函数为BCE-Dice,该函数将上述两者结合,当BCE-Dice值逐渐减小直至平稳变化,即可得到预测性能最好的训练模型。其公式为:

    BCE-DL=α×BCEloss+DL .

    (12)

    式中:α为权重因子,用于调节BCE所占的比重。本文基于U-Net模型,输入横截面的数据进行分割对比实验,设置α为0.3、0.5、0.7和0.9.表1说明混合损失函数在不同权重因子下对网络性能的影响,对比实验结果的取值为0.5时,网络性能表现最优。

    表1 不同权重因子对模型性能的影响

    2.2.3评价指标

    本文采用Dice相似度系数(dice similarity coefficient,DSC)、精确率(precision,PRE)、召回率(recall,RE)、F2得分(F2-score,F2)等性能指标对实验结果进行定量分析。DSC用于评估分割结果与真实标签之间的相似性,取值范围为[0,1],取值越接近于1,分割结果与真实标签越相似。PRE是用于评估分割结果中,病灶人群中其真实标签确实为病灶的比例,取值越大,分割结果越准确。RE是用于评估真实标签为病灶的人们中有多少比例被分割出来,取值越大,分割结果越准确。F-Score综合权衡精确率和召回率两个指标,F2是F-Score中β为2时的情况,更侧重于召回率。这是因为脑卒中病灶检测漏检会带来极高的治疗风险和救治成本,因此召回率显得极其重要。

    3.1 BIRU-Net模型有效性验证

    本节实验将U-Net作为基线模型,与BIRU-Net进行对比实验,实验设计与结果如表2所示。为了提高实验结果的说服力,同时可以有效避免过拟合,本实验采用了五折交叉验证的方法对239个数据集进行训练及验证。在每个交叉验证过程中,我们根据病灶体积大小的分布规律将整个数据集中的50个数据集作为测试集,剩余的189个数据集分为训练集和验证集,其比例大致与训练模型的比例为4∶1.U-Net-A,U-Net-C,U-Net-S分别对应子集A、C和S使用U-Net进行训练、预测后得到的3D病灶分割结果。BIRU-Net-A、BIRU-Net-C和BIRU-Net-S分别对应子集AF和AR、子集CF和CR、子集SF和SR,使用BIRU-Net进行训练、预测后得到的3D病灶分割结果。BIRU-Net是对BIRU-Net-A、BIRU-Net-C和BIRU-Net-S的分割结果进行多视面融合。

    表2展示了DSC、PRE、RE和F2多种评价指标,BIRU-Net均比U-Net得到了更高的分数。当3D MRI影像的分割切面分别为横截面、冠状面和矢状面时,BIRU-Net比U-Net的DSC值分别有11.30%、9.23%和16.21%的提升,由此验证本文所提出的BIRU-Net模型的分割性能更优。多视面融合的BIRU-Net的DSC值是62.58%,取得最高值。

    表2 不同模型的实验结果

    图5给出ATLAS数据集的DSC值的雨云分布图和盒图,用于评价BIRU-Net的性能。其中图5(a)表示当3D MRI影像的分割切面为横截面时,U-Net-A和BIRU-Net-A的DSC分布对比图;
    图5(b)、图5(c)分别表示当3D MRI影像的分割切面为冠状面、矢状面时,对应方法的DSC分布对比图。图5(d)表示单视面方法(BIRU-Net-A、BIRU-Net-C、BIRU-Net-S)和采用多视面融合方法(BIRU-Net)的DSC分布对比图。从图5(a)可以看出,本文所提出的BIRU-Net模型在雨云分布图部分有更好的数据分布,DSC值更接近高分区。BIRU-Net模型在盒图中DSC值的中位数和平均数有所提升。同时观察图5(b)与图5(c)可以得出同样的结论,体现了BIRU-Net在不同的分割切面上均保持了高效的分割精度和稳定性。图5(d)中BIRU-Net的DSC平均数和中位数在对比中取得了最高数值,分布都集中在较高数值区域。证明采用多视面融合方法可以补偿三个不同平面方向切片之间缺少的空间上下文信息。由此证明,BIRU-Net可捕获切片之间病灶大小和位置的变化特征,有效利用具有空间上下文信息的双向长依赖特性,提升分割精度。从图5中DSC值的雨云分布图可看出,存在部分数值的DSC值比较低,降低了总体DSC的平均值。这是由于ATLAS中存在许多微小病变的数据集,此类数据集病变区域较小,病灶边界模糊以及病灶特征不明显,模型无法将其准确分割出来,从而导致DSC评分低。

    图5 ATLAS数据集的DSC值分布

    3.2 与现有方法比较

    为了更好地验证本文方法的性能,将本文方法与五种基于ATLAS数据集的方法进行对比,如表3所示。文献[14]提出基于深度可分离卷积和长程依赖关系的X-Net;
    文献[15]在编码阶段结合了2D和3D卷积的维度融合的D-UNet;
    文献[16]提出跨级融合和上下文推理网络CLCI-Net;
    文献[17]提出基于多输入U-Net的MI-UNet方法;
    文献[18]提出主辅路径注意力补偿(PAPAC-Net)的方法。通过将BIRU-Net与其他方法对比可看出,BIRU-Net比X-Net、D-Unet、CLCI-Net、MI_UNet和PAPAC-Net分别提升了13.88%、9.08%、4.48%、5.85%和3.76%,准确率和召回率也高于其他已有方法,由此证明了所提方法的有效性。多视面融合操作针对输入为2D影像数据的模型,现有方法中D-UNet、MI-UNet的输入为3D影像数据,训练过程中已利用了不同视面的空间上下文信息,不存在多视面融合操作。X-Net、CLCI-Net、PAPAC-Net的输入均为单个视面(横截面),若进行多视面融合,理论上评价指标值会有所变化。但本文方法BIRU-Net-A的输入为单个视面(横截面),对比可看出BIRU-Net-A比X-Net、CLCI-Net、PAPAC-Net仍提升了11.25%、4.85%和1.13%,同样证明了本文模型具有良好的分割性能。

    表3 与其他方法对比

    本文提出一种双向循环U-Net模型的脑卒中病灶分割方法。BIRU-Net模型适用于小规模标注的医学影像数据集,具有长时记忆特性,有效解决现阶段网络模型捕获远程依赖上下文信息效率低的问题。同时训练时融合双向序列特征有效利用了切片序列数据的双向依赖性,多视面融合有效利用了不同视面之间的空间上下文信息。通过与其他方法得到的DSC值进行对比,证明本文提出的方法获得了更好的鲁棒性。在未来工作中,可使用其他脑卒中分割数据集进行实验验证,进一步证明本文方法的泛化能力,从而更好地应用于临床决策中。

    猜你喜欢 切片病灶特征 根据方程特征选解法中学生数理化·中考版(2022年9期)2022-10-25离散型随机变量的分布列与数字特征中学生数理化(高中版.高考数学)(2022年3期)2022-04-26Optimal UAV deployment in downlink non-orthogonal multiple access system: a two-user caseHigh Technology Letters(2020年4期)2020-11-27新局势下5G网络切片技术的强化思考科学与财富(2020年15期)2020-07-04PSMA-靶向18F-DCFPyL PET/CT在肾透明细胞癌术后复发或转移病灶诊断中的作用分析解放军医学院学报(2020年12期)2020-03-29网络切片标准分析与发展现状移动通信(2019年4期)2019-06-25不忠诚的四个特征当代陕西(2019年10期)2019-06-03肾穿刺组织冷冻切片技术的改进方法中国组织化学与细胞化学杂志(2016年3期)2016-02-27冰冻切片、快速石蜡切片在中枢神经系统肿瘤诊断中的应用价值比较中国当代医药(2015年17期)2015-03-01病灶大小对触诊不清的乳腺恶性病灶超声检出率的影响中国医学科学院学报(2011年2期)2011-11-23
    相关热词搜索:病灶双向分割

    • 名人名言
    • 伤感文章
    • 短文摘抄
    • 散文
    • 亲情
    • 感悟
    • 心灵鸡汤