Page 60 - 《武汉大学学报(信息科学版)》2025年第6期
P. 60
1082 武 汉 大 学 学 报 (信 息 科 学 版) 2025 年 6 月
2.2 参数设置与评价标准 指 标 上 都 有 较 大 的 提 升 ,分 别 提 升 了 3.1%~
2.2.1 参数设置 29.5%、0.9%~8.6%、1.0%~57.9%,这充分表明
本文及对比方法的实验在 Windows 10 环境 了本文方法的先进性。
下进行,CPU 型号为 Intel(R) Xeon(R) Platinum 表 1 人员检测算法精度对比结果/%
8280 CPU @ 2.70 GHz,内存为 512 GB,GPU 为 Table 1 Comparison Results of Accuracy of Person
NVIDIA Quadro RTX 8000,显存为 48 700 MB。 Detection Algorithms/%
网络采用 PyTorch 框架实现,并行计算加速采用 方法 P R mAP
CUDA 11.3 和 CUDNN 8.6 框架。在模型训练阶 Faster R-CNN 66.9 66.4 59.9
Cascade R-CNN 68.8 66.7 62.8
段,训练轮数设置为 100,训练批次为 8,初始学
RetinaNet 73.8 34.1 53.2
习率为 0.01,训练批量大小设置为 8。模型通过
CornerNet 70.1 9.8 39.4
随 机 梯 度 下 降 法 进 行 优 化 ,其 动 量 和 权 重 衰 减
FCOS 74.6 46.8 64.5
系数分别设置为 0.937 和 5×10 。 YOLOv8x 74.5 59.9 65.8
−4
2.2.2 评价标准 本文方法 75.5 67.7 68.9
为了准确客观地对人员检测算法性能进行
2)定性分析
评价,本文采用准确率 P、召回率 R、平均准确率
为了更直观地对比本文方法和其他算法的
(mean average precision,mAP)等 通 用 的 评 价 指
检测结果,选择不同场景对实验结果进行进一步
标,其中 P 用于衡量算法对于正样本的查准能力,
的定性分析,并选取了部分检测结果进行展示,
R 用于衡量算法对于正样本的查全能力,mAP 是
如图 4 所示。由图 4 可以看出,Faster R-CNN 算
以 R 为 X 轴、P 为 Y 轴做 P‑R 曲线,mAP 为 P‑R 曲
法对于场景一中距离最远的小目标人员能检测
线与坐标轴所围成的面积,理论上面积越大,模
出来,但将车辆和人影误检为人员;对于场景二
型的性能越好。计算公式如下:
中距离最远的小目标人员存在漏检。Cascade R-
N TP
P = × 100% (9) CNN 算法在场景一和场景二中对距离最远的小
N TP + N FP
目标人员均存在漏检。RetinaNet 算法在场景一
N TP
R = × 100% (10) 和场景二中能够检测出距离最远的小目标人员,
N TP + N FN
但存在误检的情况,分别将人影和公园设施误检
1
∫
P mAP = P ( R ) dR (11) 为人员。CornerNet 算法在场景一中对距离最远
0
的小目标人员存在漏检,但在场景二中能够检测
式中,TP(true positive)为真正例, N TP 指真实标
出距离最远的小目标人员,然而对于距离较近的
签为人员且被正确预测为人员的数量,即模型正
两个小目标人员存在漏检。FCOS 算法在场景一
确 检 测 人 员 数 量 ;FP(false positive)为 假 正 例 ,
中能够检测出距离最远的小目标人员,但将人影
N FP 指真实为背景且被错误预测为人员的数量,
误检为人员;在场景二中对距离最远的小目标人
即模型误检人员数量;FN(false negative)为假负
员存在漏检,同时将公园设施误检为人员。YO‑
例, N FN 指真实标签为人员且被错误预测为背景
LOv8x 算法在场景一中对距离最远的小目标人
的数量,即模型漏检人员数量。 员存在漏检,但在场景二中能够检测出距离最远
2.3 人员检测实验结果分析 的小目标人员,然而对于距离较近的一个小目标
2.3.1 模型精度对比分析 人员存在漏检。相比之下,本文方法能够检测出
1)定量分析 场景一和场景二中的所有小目标人员,且不存在
为验证本文方法的有效性和先进性,将本文 误检情况。总的来说,本文方法相比其他主流的
方 法 与 近 年 来 经 典 的 人 员 检 测 方 法 在 Manipal- 检测算法具有更好的性能。
UAV 数据集上进行对比测试,结果如表 1 所示。 2.3.2 模型泛化性分析
测试数据包括从不同高度、位置和天气条件下飞 为测试本文方法的泛化性和在复杂场景中
行 的 两 架 无 人 机 收 集 的 数 据 ,具 有 较 大 的 挑 战 的适用性,笔者在西南交通大学校园内采集了无
性。由对比结果可以看出,本文方法在 Manipal- 人机影像进行测试。测试场景包括教学楼、图书
UAV 数据集上的 mAP 为 68.9%,P 为 75.5%,R 馆、食堂和宿舍楼,其中教学楼场景包含明暗程
为 67.7%。相较于其他 6 种算法,本文方法在 3 个 度各不相同的无人机影像。为了与现有方法进