Page 268 - 《软件学报》2020年第9期
P. 268

祁磊  等:弱监督场景下的行人重识别研究综述                                                           2889


                    n
         其中,r j ∈{0,1} 表示图像 x 对应的指示值.即:如果 x 和 x j 被判定为邻近的样本则为 1,否则为 0.
             该类方法旨在关注如何得到更好的邻近关系 r 来学习模型,如图 6 所示.Zhong 等人                     [68] 沿用了非参数化实例
         分类的框架,并且对于每一个独立的样本(即每一个类),通过对抗生成网络 StarGAN                         [60] 生成一些其他摄像头风
         格的图像来增加每一个类的样本数量,即类似于一种数据增广的方式,并且在训练过程中考虑拉近一些邻近样
         本间的距离来强化类别之间的关联.对于邻近样本的选择,Zhong 等人                      [69] 进一步提出了一种基于图的预测方式
         来判别两个样本是否是真实的邻近样本,该方法主要考虑了所有样本间的关系进一步确保选择的真正同类样
         本的正确性.Ding 等人     [70] 通过设置一个距离阈值来选择每一个实例的邻近样本,并且考虑到每个实例的邻近样
         本的不均衡性会导致偏向于学习某些样本,在损失函数中融入了一种平衡机制来抑制该问题.

                                        怎样建立所有实例( 样本) 之间的关系?

                                                                 内存银行


                                                                        第i个样本
                            无标记数据


                                                                   …
                                                           特征                  …


                         Fig.6    Schematic diagram of the methods based on instance classification
                                      图 6   基于实例分类方法的学习框架
             基于实例分类的方法虽然在性能方面展现出了优越性,然而其对于样本之间的关联问题仍然需要进一步
         研究,即考虑如何采用有效的算法更加精确地进行样本关联度匹配.
         2.4   基于领域自适应的方法

             在深度学习的无监督行人重识别方法中,许多研究工作沿用了传统的领域自适应的架构,即考虑消除或减
         少领域间的差异来将判别性的信息从源域迁移到目标域中,如图 7 所示.















                          Fig.7    Schematic diagram of the methods based on domain adaptation
                                     图 7   基于领域自适应方法的学习框架

             Lin 等人 [71] 提出了一种多任务中间层的特征对齐方法(multi-task  mid-level feature alignment,简称 MMFA)
         来解决无监督跨域行人重识别问题,该方法联合身份学习和属性学习一起来训练更新网络,对无标记的目标域
         采用基于源域训练的模型生成的伪属性标记来进行模型的训练,并通过 MMD(maximum mean  discrepancy)                        [72]
         的方法减少源域和目标域之间的差异.考虑到跨域行人重识别问题中数据分布的差异不仅仅存在于领域之间,
   263   264   265   266   267   268   269   270   271   272   273