Page 322 - 《软件学报》2021年第11期
P. 322

3648                                Journal of Software  软件学报 Vol.32, No.11, November 2021

                    [2]
                 异性 .Guo 等人提出的 BTS-DSN 血管分割网络,在 DRIVE 数据集上,其 AUC 结果达到了 0.980 6,血管分割的
                                         [4]
                 准确率超过了第 2 组标注专家 .Fu 等人提出的 M-Net 对眼底视盘和视杯进行分割,在 ORIGA 数据集上达到了
                                                                                           [7]
                 92.9%的视盘分割重叠率和 77.0%的视杯分割重叠率,在青光眼自动分类上也获得了较好结果 .但目前已有的
                 眼底病变点分割模型大多只能分割一种病变点,比如 HED                  [11] 、U-Net [12] 、FCRN [13] 等,这就意味着完成多种病变
                 点的分割需要更大的计算量;同时,由于病变点尺寸不一,特征不明显,现有模型存在较多的误识别情况,尤其在
                 微动脉瘤(如图 1 所示)分割上.
                    为了解决上述问题,本文提出了一种基于多任务学习的多分枝分割模型 Red-Seg 来对眼底出血点和微动脉
                 瘤进行分割.Red-Seg 共包括两个任务:出血点分割和微动脉瘤分割.为了实现这种多任务学习,模型首先通过若
                 干个共享卷积层对眼底图像进行特征提取;随后,通过两个独立的分支得到两种病变点的分割结果.同时,针对
                 目前眼底病变点分割模型存在的误识别问题,本文提出一种两阶段训练算法来减少病变点误分的情况.其中,
                                                   [9]
                 第 1 阶段使用改进的 Top-k 带权交叉熵损失 ,使保留的负样本个数随着网络训练逐渐减少,从而迫使网络去学
                 习能区分这些难分样本的特征;在第 2 阶段,将最小化假阳性和假阴性作为模型训练优化目标,进一步减少误分
                 情况.最后,本文在公开数据集 IDRiD        [14] 上验证了 Red-Seg 的分割效果,并且与 IDRiD 竞赛队伍和其他方法进行
                 了对比.在 IDRiD 排行榜上,Red-Seg 在微动脉瘤和出血点分割上都排名第三.但是 IDRiD 排行榜前三名队伍的
                 模型属于图像块级(patch-level)分割模型,需要多次前向传播才可得到一张图像的分割结果;而 Red-Seg 属于图
                 像级(image-level)分割模型,只需一次前向传播便可得到整幅图像的分割结果.因此,Red-Seg 在分割效率上具有
                 一定优势.与 HED,FCRN 和 Deeplabv3+相比,Red-Seg 在微动脉瘤和出血点分割上获得了更高的 AUC_PR(PR
                                  [8]
                 曲线下面积).与 L-Seg 相比,Red-Seg 在微动脉瘤分割上 AUC_PR 指标高出 2%;与 Clément 等人的方法                [15] 相比,
                 出血点的 AUC_PR 指标高出 3.9%.本文的创新点如下:
                    1)   本文基于 VGGNet 主干网络提出了一种多任务的网络模型 Red-Seg,它利用不同分支分别处理微动脉
                        瘤和出血点分割任务,实现单个网络同时分割眼底图像中的两种红色病变点.
                    2)   本文提出一种 Red-Seg 模型的两阶段训练算法:第 1 阶段使用改进的 Top-k 带权交叉熵损失;第 2 阶
                        段将最小化假阳性和假阴性作为模型训练的优化目标,有利于减少病变点误分.
                    3)   本文在 IDRiD 数据集上对 Red-Seg 模型和训练算法进行验证,结果表明了两阶段训练算法的有效性,
                        进而使得 Red-Seg 与其他图像级分割方法相比获得了更好的 AUC_PR.
                 1    相关工作

                    对于眼底图像病变点分割,基于机器学习的方法主要利用阈值分割法或者模板匹配法确定候选区域,随后
                 使用分类器对候选区域进行分类.传统的眼底图像分析方法需要人工提取特征,存在鲁棒性不强、泛化性差等
                 缺点.基于深度学习的方法主要包括分类网络和分割网络,
                    •   分类网络对每个像素单独进行预测,网络的输入是待预测像素周围的一图像块,输出为对该图像块的
                        类别预测.这种方法需要对眼底图像中所有像素都单独进行预测,进而得到整幅图像的分割结果.比
                        如,Tan 等人设计了一种分类网络,实现了对微动脉瘤、出血点和硬渗这 3 种病变点的自动化检测                              [16] .
                        这种方法的问题在于运行效率低、检测时间长,并且检测出的病变点区域明显偏大.
                    •   区别于分类网络,基于分割网络的病变点分割方法根据输入图像方式的不同可进一步划分为图像块
                        级分割网络和图像级分割网络.
                         ¾   图像块级分割网络需要将一张眼底图像分成若干个图像块,对每个图像块独立进行病变点分
                             割,最后将所有的分割结果组合起来形成一张眼底图像的分割结果.比如,Chudzik 等人使用图像
                             块级的全卷积神经网络对每个图像块中的微动脉瘤进行检测,并在 3 个微动脉瘤数据集上对模
                             型进行验证.实验结果表明,该方法获得了比传统方法更高的灵敏度                        [17] .图像块级分割网络的一
                             个缺点是需要多次前向传播才可得到整幅图像的病变点分割结果,与图像级分割网络相比,其
                             运行效率较低.
   317   318   319   320   321   322   323   324   325   326   327