Page 60 - 《武汉大学学报(信息科学版)》2025年第6期
P. 60

1082                            武 汉 大 学 学 报  (信 息 科 学 版)                        2025 年 6 月

                2.2 参数设置与评价标准                                    指 标 上 都 有 较 大 的 提 升 ,分 别 提 升 了 3.1%~
                2.2.1 参数设置                                       29.5%、0.9%~8.6%、1.0%~57.9%,这充分表明
                     本文及对比方法的实验在 Windows 10 环境                   了本文方法的先进性。
                下进行,CPU 型号为 Intel(R) Xeon(R) Platinum                   表 1 人员检测算法精度对比结果/%
                8280 CPU @ 2.70 GHz,内存为 512 GB,GPU 为               Table 1 Comparison Results of Accuracy of Person
                NVIDIA Quadro RTX 8000,显存为 48 700 MB。                         Detection Algorithms/%
                网络采用 PyTorch 框架实现,并行计算加速采用                              方法            P       R       mAP
                CUDA 11.3 和 CUDNN 8.6 框架。在模型训练阶                     Faster R-CNN     66.9     66.4     59.9
                                                                    Cascade R-CNN    68.8     66.7     62.8
                段,训练轮数设置为 100,训练批次为 8,初始学
                                                                      RetinaNet      73.8     34.1     53.2
                习率为 0.01,训练批量大小设置为 8。模型通过
                                                                      CornerNet      70.1     9.8      39.4
                随 机 梯 度 下 降 法 进 行 优 化 ,其 动 量 和 权 重 衰 减
                                                                       FCOS          74.6     46.8     64.5
                系数分别设置为 0.937 和 5×10 。                                YOLOv8x        74.5     59.9     65.8
                                             −4
                2.2.2 评价标准                                            本文方法           75.5     67.7     68.9
                     为了准确客观地对人员检测算法性能进行
                                                                     2)定性分析
                评价,本文采用准确率 P、召回率 R、平均准确率
                                                                     为了更直观地对比本文方法和其他算法的
                (mean average precision,mAP)等 通 用 的 评 价 指
                                                                 检测结果,选择不同场景对实验结果进行进一步
                标,其中 P 用于衡量算法对于正样本的查准能力,
                                                                 的定性分析,并选取了部分检测结果进行展示,
                R 用于衡量算法对于正样本的查全能力,mAP 是
                                                                 如图 4 所示。由图 4 可以看出,Faster R-CNN 算
                以 R 为 X 轴、P 为 Y 轴做 P‑R 曲线,mAP 为 P‑R 曲
                                                                 法对于场景一中距离最远的小目标人员能检测
                线与坐标轴所围成的面积,理论上面积越大,模
                                                                 出来,但将车辆和人影误检为人员;对于场景二
                型的性能越好。计算公式如下:
                                                                 中距离最远的小目标人员存在漏检。Cascade R-
                                   N TP
                            P =           × 100%        (9)      CNN 算法在场景一和场景二中对距离最远的小
                                N TP + N FP
                                                                 目标人员均存在漏检。RetinaNet 算法在场景一
                                   N TP
                           R =            × 100%       (10)      和场景二中能够检测出距离最远的小目标人员,
                                N TP + N FN
                                                                 但存在误检的情况,分别将人影和公园设施误检
                                     1
                                     ∫
                              P mAP = P ( R ) dR       (11)      为人员。CornerNet 算法在场景一中对距离最远
                                     0
                                                                 的小目标人员存在漏检,但在场景二中能够检测
                式中,TP(true positive)为真正例, N TP 指真实标
                                                                 出距离最远的小目标人员,然而对于距离较近的
                签为人员且被正确预测为人员的数量,即模型正
                                                                 两个小目标人员存在漏检。FCOS 算法在场景一
                确 检 测 人 员 数 量 ;FP(false positive)为 假 正 例 ,
                                                                 中能够检测出距离最远的小目标人员,但将人影
                N FP 指真实为背景且被错误预测为人员的数量,
                                                                 误检为人员;在场景二中对距离最远的小目标人
                即模型误检人员数量;FN(false negative)为假负
                                                                 员存在漏检,同时将公园设施误检为人员。YO‑
                例, N FN 指真实标签为人员且被错误预测为背景
                                                                 LOv8x 算法在场景一中对距离最远的小目标人
                的数量,即模型漏检人员数量。                                   员存在漏检,但在场景二中能够检测出距离最远
                2.3 人员检测实验结果分析                                   的小目标人员,然而对于距离较近的一个小目标
                2.3.1 模型精度对比分析                                   人员存在漏检。相比之下,本文方法能够检测出
                     1)定量分析                                      场景一和场景二中的所有小目标人员,且不存在
                     为验证本文方法的有效性和先进性,将本文                         误检情况。总的来说,本文方法相比其他主流的
                方 法 与 近 年 来 经 典 的 人 员 检 测 方 法 在 Manipal-         检测算法具有更好的性能。
                UAV 数据集上进行对比测试,结果如表 1 所示。                        2.3.2 模型泛化性分析
                测试数据包括从不同高度、位置和天气条件下飞                                为测试本文方法的泛化性和在复杂场景中
                行 的 两 架 无 人 机 收 集 的 数 据 ,具 有 较 大 的 挑 战           的适用性,笔者在西南交通大学校园内采集了无
                性。由对比结果可以看出,本文方法在 Manipal-                       人机影像进行测试。测试场景包括教学楼、图书
                UAV 数据集上的 mAP 为 68.9%,P 为 75.5%,R                馆、食堂和宿舍楼,其中教学楼场景包含明暗程
                为 67.7%。相较于其他 6 种算法,本文方法在 3 个                    度各不相同的无人机影像。为了与现有方法进
   55   56   57   58   59   60   61   62   63   64   65