Page 490 - 《软件学报》2025年第4期
P. 490

1896                                                       软件学报  2025  年第  36  卷第  4  期


                 的准确率. Zhong  等人  [119] 提出一种注意力多层级融合神经网络, 在网络中通过卷积块注意力模块对                      RGB  图像和
                 由  LiDAR  数据生成的冠层高度图进行多层特征提取和拼接, 有效提升了网络的树种识别效果.
                    Lary  等人  [120] 设计一种多无人平台协作的水文分析方法, 通过无人船采样分析水体成分, 使用无人机搭载辐照
                 度光谱仪获取太阳光入射强度、超光谱相机和红外相机获取水体光反射强度, 由此计算不同波段的反射率并进行
                 数据堆叠, 然后通过上位机搭载的算法对反射率与水体成分的映射关系进行学习, 从而提升水文分析效率.
                 Lewicka 等人  [121] 利用  LiDAR  点云构建海岸地面模型、无人机可见光图像生成近岸水体模型、无人船声呐数据
                 构建远岸水体模型, 通过堆叠上述模型得到完整的海岸带数字模型. Alevizos 等人                     [122] 在无人机上搭载  RGB  波段
                 互补的可见光相机和多光谱相机, 处理获得              DOM  后将二者的    RGB  波段进行堆叠, 以此提高光谱分辨率, 为浅水
                 测深反演提供更有效的信息.

                 3.4   目标检测
                    凭借空域机动的灵活性和观测受限较少的优势, 无人机在目标检测方面得到了广泛应用                             [134] . 为了提高检测的
                 准确性, 研究人员多采用基于滤波的方法或点阵数据融合方法对通过不同传感器得到的目标信息进行融合.
                    Feng  等人  [123] 通过  DCNN  从深度相机数据中检测得到目标设备的二维位置以及深度信息, 通过                  VIO  获取相
                 机位姿数据, 最后使用       EKF  融合目标位置、深度和相机位姿, 估计出目标的三维位置以及碰撞距离, 从而指导无
                 人机的自主路径规划. Vitiello    等人  [124] 提出一种雷达与相机数据      2  层融合的目标检测方法, 第       1  层将视觉检测图
                 像与雷达检测在      RGB  图像平面上的投影进行比较, 滤除雷达检测的杂波; 紧接着, 第                2  层使用  EKF  融合雷达检测
                 与视觉检测得到的目标信息, 给出准确的目标位置和速度. Marques 等人                   [125] 将红外图像堆叠至   RGB  图像得到   4
                 通道图像输入至目标检测算法, 测试表明融合图像显著提高了算法在低可视环境中的准确率. Nagarani 等人                             [126] 研
                 究固定翼无人机着陆时的跑道检测问题, 在提取                RGB  图像的纹理特征后, 采用数据混合方法融合             RGB  和红外图
                 像, 最后对融合图像、数字高程模型和纹理特征图加以堆叠并从中提取出跑道区域的轮廓. Golcarenarenji 等人                          [127]
                 针对无人机在恶劣环境中的人体检测任务, 通过算法训练不同环境下的数据混合加权规则, 在此基础上融合可见
                 光和红外图像, 输入至所提        CNN  中检测人体目标. Liu    等人  [128] 首先使用孪生深度学习网络对       RGB  图像进行语义
                 分割, 识别并跟踪降落区域, 然后通过数据混合方法获得带有语义标签的                      LiDAR  点云并从中提取着陆区域.
                                                              等人
                                                                  [129]
                                                                     提出一种植保无人机避障算法, 使用
                                                                                                 1
                    检测障碍物并测量距离是无人机避障的关键. Ahmed                                                     个毫米
                 波雷达和   4  个激光测距仪分别从前向和侧向感知障碍物距离, 根据剩余植保喷剂量建立动态变化的无人机运动模
                 型, 在此基础上进行数据混合, 得到无人机的动作决策, 使无人机能够自主避障并返回作业路径. Green                           等人  [130] 安
                 装发光二极管和可见光激光仪           2  种光源, 前者射光在透明障碍物处反射, 后者射光会穿过透明障碍物, 采用硅视网
                 膜成像仪感知光反射并计算距离, 随后混合              2  种距离数据可以判断透明障碍物的存在与否和距离.

                 4   未来发展方向

                 4.1   集群协作
                    近些年, 无人机集群协作成为新的焦点, 相关研究如火如荼                  [135,136] . 在将无人机多传感器数据融合由单体向集
                 群拓展时, 存在更多的研究和应用难点. 无论是将多个无人机的数据集中后进行融合, 得到决策信息的方式                                [137] ; 还
                 是集群内的个体分别进行数据融合获取决策信息, 再对决策加以融合的方式                         [138] ; 均需要考虑集群中无人机的传感
                 器能力不同, 通信条件差异, 位置动态变化等因素, 使得无人机集群的多传感器数据融合更具挑战性, 亟待研究探
                 索. 此外, 对于关键的定位导航工作, 集群内部需要实时共享数据完成协同定位                      [139] , 导致算法进行估计时需要处理
                 状态量的维度增大, 对此, 通过设计策略降低状态量维度或分布式处理分析是研究的可行方向.

                 4.2   跨域无人平台数据融合
                    卫星遥感、无人机低空观测与地面测量的空-天-地跨域数据融合在农业或环境监测应用中已经较为常
                 见  [140−142] . 而无人车、无人船、无人潜航器等无人平台的数据融合研究和应用主要专注于单个平台, 跨域多无人
                 平台的传感器数据融合研究相对较少且集中于空地协同                   [143−145] . 通过无人平台的跨域协作, 辅以    GNSS  信息, 可以
   485   486   487   488   489   490   491   492   493   494   495