Page 150 - 《软件学报》2024年第4期
P. 150
1728 软件学报 2024 年第 35 卷第 4 期
3.3.2 泛化实验分析
本节使用 FlyingThings3D 数据集训练本文 GPLWS-Net 与其他 4 种深度学习模型, 并在 Middlebury 数据
集、DefocusNet 数据集和 4D Light Field 数据集上进行测试, 用以定量分析本文模型的泛化性能. 如表 6 所示:
除在 DefocusNet 数据集中的 AbsRel 和 SqRel 指标外, 本文 GPLWS-Net 模型在 3 类测试集中的其他指标均能
保持最优性能.
表 6 跨不同数据集的定量结果
模型 训练集 测试集 MAE MSE RMSE AbsRel SqRel
[5]
FVNet 11.276 177.649 13.147 0.360 5.011
[5]
DFVNet 11.407 183.267 13.302 0.344 4.711
[6]
DDFF FlyingThings3D Middlebury 32.499 1 480.444 37.544 1.197 52.169
[8]
AiFDepthNet 3.825 58.570 5.936 0.165 3.039
GPLWS-Net 2.539 17.497 4.062 0.100 0.642
[5]
FVNet 0.271 0.144 0.353 0.555 0.198
[5]
DFVNet 0.271 0.152 0.360 0.529 0.204
[6]
DDFF FlyingThings3D DefocusNet 89.351 9 305.360 95.214 331.124 3 357.152
[8]
AiFDepthNet 0.183 0.080 0.261 0.725 0.404
GPLWS-Net 0.126 0.053 0.234 2.011 1.826
[5]
FVNet 1.485 3.053 1.704 2.421 5.676
[5]
DFVNet 1.352 2.432 1.552 1.780 3.377
[6]
DDFF FlyingThings3D 4D Light Field 94.106 9 806.356 95.715 77.899 7 464.454
[8]
AiFDepthNet 0.205 0.106 0.313 0.198 0.151
GPLWS-Net 0.021 0.042 0.036 0.010 0.036
图 10 使用本文公开的 Micro 3D 数据集进行训练, 并在印辊微观场景(不同于本文的 Micro 3D 数据集)验
证其泛化性, 由此说明本文数据集的必要性和泛化性. 其中: RR, AiFDepthNet 和 FVNet 方法易受离散噪声干
扰, 对于场景的微细纹理变化敏感; RDF, DDFF 和 DFVNet 方法都具备对噪声的抗干扰能力, 但深度边缘保持
不佳; 而本文提出的 Micro 3D 数据集及 GPLWS-Net 模型可有效适应未知的微观场景, 具有良好的抗噪性和
鲁棒性.
图 10 模型设计与深度学习类方法以及本文的 GPLWS-Net 在 3 组微观印辊数据集下的泛化性对比
3.3.3 延时实验分析
本节将设计不同图像分辨率和采样频率的数据验证各模型的效率. 图像分辨率中选定 256×256, 512×512,
600×800 和 540×960 测试各模型的尺度性能, 采样频率则是从 5−100 等间隔验证各模型在不同采样频率的性
能. 由表 7 可以看出: 相比于其他深度网络模型, 本文提出的 GPLWS-Net 模型具有显著的速度优势, 未来通
过 GPU 加速可大幅降低运算时间, 具备了工业化应用实时三维形貌重建的条件.