Page 207 - 《软件学报》2025年第5期
P. 207

程浩喆 等: 基于双向拟合掩码重建的多模态自监督点云表示学习                                                  2107


                 单独嵌入执行时, 在      3  种拆分数据集上分别取得        95.79%, 93.84%  和  91.77%  的精度结果. 相比于辅助点云生成模
                 型  (95.64%/93.71%/91.65%) 和多模态教师模型  (95.54%/93.69%/91.42%) 的分类结果, “坏教师”模型的分类贡献增
                 益最大. 其原因在于该模型在反向噪声拟合中提升了效率和对噪声的抗性. 因此, 预训练模型能较好地屏蔽真实世
                 界噪声对表示学习的不良影响, 这对            ScanObjectNN  数据集尤为重要. 之后, 3   种模型依次组合以完成二阶消融学
                 习测试. 当“坏教师”模型和辅助点云生成模型进行组合时, 分类结果为                     96.15%, 94.02%  和  92.26%. 相比其他两种
                 模型的结合, 展示出强劲的分类表现. 综合表             9  中单模型和两两结合的模型在真实世界数据集上的分类效果, 本文
                 得出以下结论: (1) 本文所提出的        3  种子模型均对骨干网络的分类性能产生积极作用. (2) 逆密度尺度指导下的
                 “坏教师”模型, 及其与基于       StyleGAN  的辅助点云生成模型的结合模型的效果提升最为显著. 经过分析, 其原因在
                 于“坏教师”模型通过反向拟合策略在初始阶段给定与源局部特征分布相似的噪声分布. 经过逐步双向加速重建拟
                 合, 最终所捕获的特征表示具有强鲁棒性和判别力. 加入辅助点云重新判别后, 掩码重建所生成的噪声点或异常点
                 也被丢弃. 因此, 在面对包含噪声的          ScanObjectNN  数据集时, 两种模型分别从特征层级和重建层级加强了模型表
                 示力, 因此得到优良的点云分类性能.
                    (2) 逆密度尺度指导下的“坏教师”模型消融学习
                    在本节, 逆密度尺度指导下的“坏教师”模型中              3  种子方法依次嵌入以验证其有效性, 其中包括基于高斯核密
                 度估计的逆密度重加权方法          (简称逆密度尺度指导)、“坏教师”掩码重建损失函数                L B-MR  及特征拟合损失函数    L FF  .
                 当逆密度尺度指导策略消融时, 中心点直接通过添加固定小范围噪声对其进行偏移. 经过多层感知机抽象特征后,
                 与局部邻域元素级相加并完成后续重建工作. 在                ScanObjectNN  数据集上的点云分类消融学习结果          (OA) 如表  10
                 所示. 从表  10  中可以得到, 联合基于高斯核密度估计的逆密度重加权方法和“坏教师”掩码重建损失函数的结合模
                 型在  3  种拆分数据集上的分类精度分别达到            95.66%、93.78%  和  91.71%. 相比缺少逆密度尺度指导, 该联合模型
                 作用效果突出. 而特征拟合损失函数           L FF  的主要功能在于为掩码重建添加特征层级上的定向拟合. 该方法与“坏教
                 师”掩码重建损失函数结合的消融结果为              95.62%、93.76%  和  91.69%. 与单“坏教师”掩码重建损失函数的消融结
                 果相比,   L FF  的分类结果贡献度显著.

                 表 9 ScanObjectNN  数据集上子模型的点云分类消融              表 10 ScanObjectNN  数据集上逆密度尺度指导下的
                                 学习结果 (%)                          “坏教师”模型点云分类消融学习结果            (%)

                 “坏教师” 辅助点云 多模态 OBJ_      OBJ_ONLY PB_T50_RS  逆密度尺度    L B-MR L FF OBJ_BG OBJ_ONLY PB_T50_RS
                  模型   生成模型 教师模型 BG                              指导
                   -      -     -    95.35  93.63    91.26        -      -   -   95.35   93.63    91.26
                    √     -     -    95.79  93.84    91.77        -      √   -   95.44   93.67    91.45
                   -      √     -    95.64  93.71    91.65        √      √   -   95.66   93.78    91.71
                   -      -      √   95.54  93.69    91.42        -      -    √  95.46   93.70    91.33
                    √     √     -    96.15  94.02    92.26        -      √    √  95.62   93.76    91.69
                    √     -      √   96.02  93.90    92.11        √      √    √  95.79   93.84    91.77
                   -      √      √   95.98  93.88    91.91
                    √     √      √   96.22  94.10    92.44
                    (3) 基于  StyleGAN  的辅助点云生成模型超参数验证
                    基于  StyleGAN  的辅助点云生成模型中涉及的超参数分别为: (1) 基于              StyleGAN  的融合因子   ω , 其功能在于
                 有权地融合风格生成的点云结果和真值. (2) 基于             StyleGAN  的辅助点云生成结果与原始掩码重建点云的融合阈值
                 τ , 用于抵抗掩码重建所生成新噪声点的影响. 两种超参数验证实验均在                     ScanObjectNN  中  PB_T50_RS  拆分部分
                 上完成, 且仅在骨干网络基础上保留基于             StyleGAN  的辅助点云生成模型. 对于融合因子          ω , 本文取  [0.5,0.9] 范围
                 内的  5  种不同值进行验证. 从图      6(a) 中可知, 当融合因子    ω = 0.7 时, 分类表现最佳. 其原因在于      StyleGAN  生成辅
                                   P real                                                   P real  占相对主导
                 助点云过程中真实点云         n   担当生成风格引导, 保证生成结果能有助于服务原始重建结果. 因此,                    n
                 地位时可获得良好的分类效果. 然而, 当生成结果与               P real   几乎相同时, 即当融合因子  ω = 0.9 时, 辅助点云生成模型
                                                          n
                 并未发挥作用, 分类结果最差. 不同阈值           τ 的分类结果如图     6(b) 所示. 当原始重建结果与辅助点云生成结果的余弦
   202   203   204   205   206   207   208   209   210   211   212