Page 66 - 《武汉大学学报(信息科学版)》2025年第6期
P. 66
第 50 卷 第 6 期 武 汉 大 学 学 报( 信 息 科 学 版 ) Vol.50 No.6
2025 年 6 月 Geomatics and Information Science of Wuhan University Jun. 2025
引文格式:隋百凯,曹云刚,程海波,等 . 基于几何先验约束的高点多视角损毁建筑物检测方法[J]. 武汉大学学报(信息科学
版),2025,50(6):1088-1099.DOI:10.13203/j.whugis20240297
Citation:SUI Baikai,CAO Yungang,CHENG Haibo,et al.Damaged Building Detection Method in Multi-view Scenes Based on
Geometric Prior Constraints[J].Geomatics and Information Science of Wuhan University,2025,50(6):1088-1099.DOI:10.13203/j.
whugis20240297
基于几何先验约束的高点多视角损毁建筑物
检测方法
隋百凯 曹云刚 程海波 杨 鹏 曾雅慧 谢亚坤 朱 军 1
1
1
1
1
1
1
1 西南交通大学地球科学与工程学院,四川 成都,611756
摘 要:建筑物是重要的受灾体之一,损毁建筑物检测与空间映射是应急救援的关键。高点多视角遥感装备为损毁建筑
物信息提取提供了一种有效手段,但面临着多视角特征表达不一、建筑信息不全等问题,提出了一种几何先验约束的多
视角场景下的损毁建筑物检测方法。首先,基于长距离高点监测摄像机、无人机以及网络搜集等方式构建多视角场景损
毁建筑物实例分割数据集;其次,设计了一种结合阶段感知特征增强和细粒度特征对齐的跨视角域建筑特征同步模型,
对不同视角下的建筑物进行微观特征同步;然后,提出了一种基于 Canny 边缘检测和熵混乱程度的实例分割模型,对损
毁建筑物进行精准检测;最后,设计了一种基于垂直/水平视场切割的几何约束的空间映射方法,将目标检测信息映射到
地理空间场景中。实验结果表明,与现有方法相比,所提方法对于不同视角下的建筑及损毁建筑检测效果更好,边界框
平均精度均值和像素平均精度均值分别达到 50.33% 和 46.69%;在预测边界框与真实边界框的交并比阈值为 50% 时,所
提方法在目标检测和实例分割任务中的平均精度均值分别达到 83.10% 和 81.91%。在空间映射方面,所提方法能够较
为精准地将图像检测的损毁建筑映射到真实地理位置,为应急救援实时指挥提供技术支持。
关键词:高点监测;损毁建筑物;多视角场景;特征对齐;空间映射
中图分类号:P237 文献标识码:A 收稿日期:2024‑12‑04
DOI:10.13203/j.whugis20240297 文章编号:1671‑8860(2025)06‑1088‑12
Damaged Building Detection Method in Multi-view Scenes Based on
Geometric Prior Constraints
SUI Baikai CAO Yungang CHENG Haibo YANG Peng ZENG Yahui 1
1
1
1
1
XIE Yakun ZHU Jun 1
1
1 Faculty of Geosciences and Engineering, Southwest Jiaotong University, Chengdu 611756, China
Abstract: Objectives: Buildings constitute a critical component that is adversely impacted by disasters.
The intelligent detection of damaged building information, coupled with the alignment of 2D to 3D scenes,
is pivotal in emergency rescue efforts. Methods: This paper proposes an innovative method for detecting
damaged buildings from multiple perspectives, leveraging geometric prior constraints across various fields
of view. First, a large amount of data collected from long-distance high-point monitoring cameras, drones
and online gathering are generated by the simulated image generation to construct a multi-view scene data-
set for damaged building instance segmentation. This dataset includes data from various perspectives, such
as ground-level view, high-point ground view, and low-altitude high-point view. Then, a cross-view do‑
main building feature synchronization model that combines phase-aware feature enhancement and fine-
grained feature alignment is designed. This model performs micro-feature synchronization on buildings un‑
der different perspectives, and it consists of a multi-branch phase-aware feature enhancement module and a
基金项目:国家重点研发计划(2022YFC3005703)。
第一作者:隋百凯,博士,研究方向为遥感图像智能处理与分析。13012482890@163.com
通信作者:曹云刚,博士,教授。yungang@swjtu.edu.cn