Page 226 - 《软件学报》2021年第5期
P. 226

1450                                     Journal of Software  软件学报 Vol.32, No.5,  May 2021

                 域的发展趋势.迁移学习和微调           [206] 是其中一个代表性技术,其主要思想是:使用预训练模型作为监督学习网络
                 的初始值,然后利用任务相关的有限标注数据集,以监督方式对网络参数进行微调,调整网络中的若干或全部
                 层.例如,Bayramoglu 等人 [207] 通过在不同深度的 CNN 模型上使用迁移学习,探究预训练网络参数对细胞核分类
                 性能的影响.自监督学习(self-supervised learning)  [208] 是另外一条技术路线,这类模型通常使用更小规模的分割
                 样本作为网络的输入用于训练和预测,可以从无标注数据中学习得到有意义的图像信息.例如,Zhang 等人                                [209] 将
                 自监督学习机制引入 CNN,由此精细识别人体部位.综上,深度学习对较大规模训练数据集的依赖性,与数字病
                 理图像分割任务中的小样本问题相矛盾.如何在特征挖掘过程中完成对有意义图像信息的自行建模和推理,降
                 低小样本问题对分割的影响,是数字病理图像分割的重要内容.
                    (5)  提升高通量检测与鲁棒性分割能力
                    对于高通量显微镜产生的海量病理数据,传统肉眼检查和人工方法不仅耗时耗力,而且存在主观差异性,例
                 如从成千上万个体细胞汇集的图像中逐个分割出具有相对完整边界的细胞,由此派生出许多自动化检测与分
                 割工具,例如 CellProfiler [210] 、Neuromantic [211] 等.一方面,这些工具通过组合预定义模块实现不同任务,例如细胞
                 计数,但其整体性能易受参数规模的影响,尤其是当多个模块均执行复杂操作的情况.因此,如何实现分割性能
                 与计算代价的最优折中是一个挑战性问题.另一方面,分割结果为后续形态计算和病理特征提供定量分析,而分
                 割过程引入的错误会严重影响计数、识别等更高级分析任务的精度.因此,提升高通量检测与鲁棒性分割能力
                 是当前数字病理应用中提高精准预测和应用能力的迫切需求.
                 8    结   论

                    本文总结了 100 多种基于深度学习算法的最新病理图像检测与分割模型,这些模型在不同类型病理图像
                 分割任务和基准测试中均取得了突破性成果.目前的方法体系主要分 5 类:卷积神经网络、全卷积网络、编码
                 器-解码器模型、循环神经网络以及生成对抗网络.在此基础上,梳理了现有适用于检测、分割及分类任务的公
                 开病理数据集,以及不同方法的方法理论、关键技术、优缺点和性能分析.最后讨论了未来几年病理图像分割
                 领域所面临的一些开放挑战和潜在研究方向.


                 References:
                  [1]    Weinstein RS, Graham AR, Richter LC, Barker GP, Krupinski EA, Lopez AM, Erps KA, Bhattacharyya AK, Yagi Y, Gilbertson
                      JR. Overview of telepathology, virtual microscopy, and whole slide imaging: Prospects for the future. Human Pathology, 2009,
                      40(8):1057−1069.
                  [2]    Xing FY, Yang L. Robust nucleus/cell detection and segmentation in digital pathology and microscopy images: A comprehensive
                      review. IEEE Reviews in Biomedical Engineering, 2016,9:234−263.
                  [3]    Xing FY, Xie YP, Su H, Liu FJ, Yang L. Deep learning in microscopy image analysis: A survey. IEEE Trans. on Neural Networks
                      and Learning Systems, 2018,29(10):4550−4568.
                  [4]    Ulman V, Maška M, Magnusson KEG, Ronneberger O, Haubold C, Harder N, Matula P, Matula P, Svoboda D, Radojevic M,
                      Smal I, Rohr K, Jaldén J, Blau HM, Dzyubachyk O, Lelieveldt B, Xiao PD, Li YX, Cho SY, Dufour AC, Olivo-Marin JC, Reyes-
                      Aldasoro CC, Solis-Lemus JA, Bensch R, Brox T, Stegmaier J, Mikut R, Wolf S, Hamprecht FA, Esteves T, Quelhas P, Demirel
                      Ö, Malmström L,  Jug F, Tomancak  P, Meijering E, Muñoz-Barrutia A, Kozubek M, Ortiz-de-Solorzano C. An  objective
                      comparison of cell-tracking algorithms. Nature Methods, 2017,14(12):1141−1152.
                  [5]    Isse K, Lesniak A, Grama K, Roysam B, Minervini MI, Demetris AJ. Digital transplantation pathology: Combining whole slide
                      imaging, multiplex staining and automated image analysis. American Journal of Transplantation, 2012,12(1):27−37.
                  [6]    Sirinukunwattana K, Pluim JPW, Chen H, Qi XJ, Heng PA, Guo YB, Wang LY, Matuszewski BJ, Bruni E, Sanchez U, Böhm A,
                      Ronneberger O, Cheikh BB, Racoceanu D, Kainz P, Pfeiffer M, Urschler M, Snead DRJ, Rajpoot NM. Gland segmentation in
                      colon histology images: The GlaS challenge contest. Medical Image Analysis, 2017,35:489−502.
                  [7]    McCann MT, Ozolek JA, Castro CA, Parvin B, Kovacevic J. Automated histology analysis: Opportunities for signal processing.
                      IEEE Signal Processing Magazine, 2014,32(1):78−87.
   221   222   223   224   225   226   227   228   229   230   231