Page 460 - 《软件学报》2024年第6期
P. 460
软件学报 ISSN 1000-9825, CODEN RUXUEW E-mail: jos@iscas.ac.cn
Journal of Software,2024,35(6):3036−3051 [doi: 10.13328/j.cnki.jos.006895] http://www.jos.org.cn
©中国科学院软件研究所版权所有. Tel: +86-10-62562563
基于端到端深度神经网络和图搜索的 OCT 图像视网膜层边界
*
分割方法
胡 凯 1,3 , 蒋 帅 1 , 刘 冬 1 , 高协平 2
(智能计算与信息处理教育部重点实验室 (湘潭大学), 湖南 湘潭 411105)
1
2
(智能计算与语言信息处理湖南省重点实验室 (湖南师范大学), 湖南 长沙 410081)
(医学影像人工智能湖南省重点实验室 (湘南学院), 湖南 郴州 423000)
3
通信作者: 高协平, E-mail: xpgao@xtu.edu.cn
摘 要: 视网膜层边界的形态变化是眼部视网膜疾病出现的重要标志, 光学相干断层扫描 (optical coherence
HU Kai , JIANG Shuai , LIU Dong , GAO Xie-Ping
tomography, OCT) 图像可以捕捉其细微变化, 基于 OCT 图像的视网膜层边界分割能够辅助相关疾病的临床判断.
在 OCT 图像中, 由于视网膜层边界的形态变化多样, 其中与边界相关的关键信息如上下文信息和显著性边界信息
等对层边界的判断和分割至关重要. 然而已有分割方法缺乏对以上信息的考虑, 导致边界不完整和不连续. 针对以
上问题, 提出一种“由粗到细”的基于端到端深度神经网络和图搜索 (graph search, GS) 的 OCT 图像视网膜层边界
分割方法, 避免了非端到端方法中普遍存在的“断层”现象. 在粗分割阶段, 提出一种端到端的深度神经网络—注意
力全局残差网络 (attention global residual network, AGR-Net), 以更充分和有效的方式提取上述关键信息. 具体地,
首先设计一个全局特征模块 (global feature module, GFM), 通过从图像的 4 个方向扫描以捕获 OCT 图像的全局上
下文信息; 其次, 进一步将通道注意力模块 (channel attention module, CAM) 与全局特征模块串行组合并嵌入到主
干网络中, 以实现视网膜层及其边界的上下文信息的显著性建模, 有效解决 OCT 图像中由于视网膜层形变和信息
提取不充分所导致的误分割问题. 在细分割阶段, 采用图搜索算法去除 AGR-Net 粗分割结果中的孤立区域或和孔
洞等, 保持边界的固定拓扑结构和连续平滑, 以实现整体分割结果的进一步优化, 为医学临床的诊断提供更完整的
参考. 最后, 在两个公开数据集上从不同的角度对所提出的方法进行性能评估, 并与最新方法进行比较. 对比实验
结果也表明所提方法在分割精度和稳定性方面均优于现有方法.
关键词: OCT 图像; 视网膜层边界分割; 残差神经网络; 注意力; 图搜索
中图法分类号: TP391
中文引用格式: 胡凯, 蒋帅, 刘冬, 高协平. 基于端到端深度神经网络和图搜索的OCT图像视网膜层边界分割方法. 软件学报,
2024, 35(6): 3036–3051. http://www.jos.org.cn/1000-9825/6895.htm
英文引用格式: Hu K, Jiang S, Liu D, Gao XP. Segmentation of Retinal Layer Boundary in OCT Images Based on End-to-end Deep
Neural Network and Graph Search. Ruan Jian Xue Bao/Journal of Software, 2024, 35(6): 3036–3051 (in Chinese). http://www.jos.org.
cn/1000-9825/6895.htm
Segmentation of Retinal Layer Boundary in OCT Images Based on End-to-end Deep Neural
Network and Graph Search
1,3 1 1 2
1
(Key Laboratory of Intelligent Computing and Information Processing of Ministry of Education (Xiangtan University), Xiangtan 411105,
China)
* 基金项目: 国家自然科学基金 (62272404, 61972333); 湖南省自然科学基金 (2022JJ30571); 湖南省教育厅优秀青年基金 (21B0172); 长沙
市科技重大专项 (kh2202005)
收稿时间: 2022-06-30; 修改时间: 2022-09-23; 采用时间: 2022-12-11; jos 在线出版时间: 2023-06-28
CNKI 网络首发时间: 2023-06-29