Page 149 - 《软件学报》2024年第4期
P. 149

闫涛  等:  一种分组并行的轻量化实时微观三维形貌重建方法                                                   1727


                             表 4   4D Light Field 数据集和 DefocusNet 数据集的定量评价
                                           4D Light Field [33]    DefocusNet  [7]
                              Methods
                                         MSE   RMSE   Bump   MSE   MAE   AbsRel
                                  [5]
                              FVNet     0.030 1   0.153 7   −   0.018 9   −   0.140 0
                                   [5]
                              DFVNet    0.031 7   0.154 9   −   0.020 5   −   0.130 0
                                  [6]
                              DDFF      0.115 0   0.331 0   2.95   0.044 0   0.131 2   0.355 6
                                    [7]
                             DefocusNet    0.059 3   0.235 5   2.69   0.017 5   0.063 7   0.138 6
                                     [8]
                            AiFDepthNet    0.047 2   0.201 4   1.58   0.012 7   0.054 9   0.111 5
                             GPLWS-Net   0.027 5   0.144 2   2.49   0.010 6   0.053 4   0.139 4
             4D  Light Field 可验证各模型对于精细结构的三维形貌重建.  由图 8 所示:  DDFF 模型和 DefocusNet 模型
         仅能分辨场景的相对深度,  无法重建场景内的精细结构;  AiFDepthNet 模型无法有效保持深度图的边缘细节,
         深度信息容易弥散;  DFVNet 模型和 FVNet 模型对于场景内富纹理背景处理不佳.  本文提出的 GPLWS-Net 模
         型在精细结构的表达和聚焦区域的判断方面表现良好,  例如场景一的绳结和场景二的鞋身.














                                     图 8    4D Light Field 数据集的定性比较
             由表 5 可以看出:  本文的 GPLWS-Net 模型在 FlyingsThings3D 数据集上与 FVNet,  DFVNet,  DDFF 和
         AiFDepthNet 相比,  在所有评价指标方面均有较大提升,  其中,  AiFDepthNet 在各项指标中也得到了第二优的
         结果(注:  由于 DefocusNet 未公布其训练模型和网络代码,  因此下列表单中未列出该网络的定量评估结果以及
         预测图).
                                     表 5   FlyingsThings3D 数据集定量评估
                                                      FlyingThings3D
                                     Methods    MAE   RMSE   AbsRel   SqRel
                                          [5]
                                     FVNet     27.442   35.406   2.388   78.952
                                          [5]
                                     DFVNet    27.951   36.098   2.334   79.705
                                         [6]
                                     DDFF      17.182   27.077   1.654   45.132
                                            [8]
                                   AiFDepthNet    6.838   12.247   0.666   8.788
                                    GPLWS-Net   6.053   11.045   0.631   7.575
             FlyingsThings3D 数据集可验证各模型对于复杂遮挡场景的三维形貌重建.  由图 9 可知: DDFF 模型仅能分
         辨场景的前后关系,  无法识别场景的语义关系,  且易发生聚焦扭曲; DFVNet, FVNet 和 AiFDepthNet 模型可表
         达场景的语义关系,  但易受到场景纹理信息的干扰,  无法捕获更加丰富的层次信息;  而本文的 GPLWS-Net 模
         型在三维形貌的边缘保持和遮挡重叠区域有较好的重建效果.









                     图 9   本文 GPLWS-Net 与其他 4 类网络在 FlyingThing3D 数据集上的深度预测
   144   145   146   147   148   149   150   151   152   153   154