Page 337 - 《软件学报》2026年第1期
P. 337
334 软件学报 2026 年第 37 卷第 1 期
压缩, 同时降低内存占用并提升运行速度. 2018 年, 谷歌提出了一种新的量化方案 [35] , 将神经网络的权重和激活值
压缩为 8-bit 整数, 并将部分参数 (如偏置向量) 保留为 32-bit. 这种方法针对仅支持整数运算的硬件进行了优化,
大幅提升了量化推理的效率. 此外, 研究者还提出了乘积量化和矢量量化技术 [36] , 进一步探索其在深度学习模型
压缩中的应用. 矢量量化通过将多个标量数据组合成矢量, 并对整个矢量进行量化以实现数据压缩, 同时尽量保持
信息完整性. 乘积量化则将输入空间划分为多个子空间, 对每个子空间的权值矩阵进行聚类, 生成包含多个码字的
码书, 通过少量码字近似表示相同维度的向量, 从而显著缩减模型体积. 实验表明, 将乘积量化应用于卷积层和全
连接层, 不仅能够大幅减少模型体积, 还能显著提升计算效率. 例如, Asiyabi 等人 [37] 提出了一种用于 SAR 卫星图
像的随机量化噪声方法, 通过自适应均匀量化格式在实现高效数据压缩的同时, 保留了 SAR 原始数据的统计特
性, 为多种应用程序提供了高保真的数据基准.
(b) 参数剪枝和共享技术. 剪枝技术通过移除模型中的冗余参数或网络连接, 降低模型的复杂度和存储需求,
根据剪枝粒度的不同, 可以分为结构化剪枝和非结构化剪枝. 结构化剪枝的操作粒度较大, 通常删除整个卷积核或
多个通道等参数组合, 显著减小模型规模并提高硬件加速效果. 然而, 这种方法通常会引起一定的准确率降低. 非
结构化剪枝的操作粒度更小, 可以灵活地移除任意冗余参数, 不受特定结构的限制, 可在保持模型精度的同时实现
更高的稀疏化. 然而, 由于剪枝后模型结构不规则, 硬件加速的实现较为困难. Han 等人 [38] 提出了一种基于阈值选
择的非结构化剪枝策略, 通过设定阈值剔除权值较小的参数 (如突触和神经元), 在降低计算量的同时保持模型稀
疏化效果, Lin 等人 [39] 提出了一种基于剪枝的神经网络模式解释方法, 通过修剪神经网络中的冗余参数以突出关
键权重部分, 从而提升了模型的可解释性, 为卫星图像分析提供了优化新思路.
(c) 知识蒸馏技术. 知识蒸馏通过“学生-教师”范式将复杂模型提炼为更紧凑的小模型, 从而减少计算资源需
求. 其基本思想是通过 Softmax 函数学习教师模型的类别分布, 并将大规模教师模型的知识传递给学生模型. 这种
方法显著减少了训练资源消耗, 并在各种图像分类任务中取得了显著的性能提升. 然而, 知识蒸馏技术仅适用于具
有 Softmax 损失函数的分类任务, 限制了其应用范围. 这些方法主要通过对模型的参数和结构来实现压缩, 从而减
少计算量, 提升模型推理效率与性能. 模型压缩本质是模型参数量、计算复杂度和推理性能之间的权衡. 因此, 在
进行模型压缩时, 需综合考虑其在特定应用场景下的实际需求, 以避免性能损失和精度降低的过度影响. 例如,
Zhang 等人 [40] 提出了一种两阶段检测网络, 在精馏学习阶段引入自适应注意力机制, 以捕捉教师网络与学生网络
之间的差异特征, 从而提升了卫星视频中目标跟踪的准确性, 同时保持了较高的计算效率. Zhou 等人 [41] 设计了一
个多层语义知识对齐蒸馏框架, 使学生模型能够学习复杂模型中提取的语义信息. 该方法应用于遥感图像的密集
预测, 并通过知识蒸馏自适应地选择有用的语义信息, 在目标分割任务中实现了出色的性能.
高性能星载计算平台发展现状: 相比传统数据处理器, 越来越多的硬件平台开始支持深度学习模型的快速部
署与高效执行. 这些平台不仅包括传统的 CPU 和 GPU, 还涵盖了专为深度学习算法设计的硬件, 如高性能 FPGA
等可编程逻辑加速器. 同时, 多个卫星项目的研究团队已成功完成高性能计算单元的在轨验证. 例如, 中国首颗商
业 SAR 卫星“海丝一号” (代号 HISEA-1) 搭载了英伟达 Jetson TX1 智能处理器, 用于卫星在轨目标识别 [42] . 该卫
星数据处理系统结合 GPU 执行复杂目标检测算法, CPU 完成图像分割等较低复杂度的任务, 通过合理分配计算
负荷, 实现了高效目标识别. 此外, 由中国科学院主导的空间新技术试验卫星 (代号 SATech-01) 搭载异构多核智能
处理单元, 成功完成了深度学习算法的在轨验证 [43] , 该单元融合了多种智能处理单元架构, 包括英伟达 Jetson
TX2i、华为 Atlas 200 等, 为在轨功能验证提供了丰富的计算资源. 随着卫星逐渐小型化并降低成本, 基于高性能
COTS 计算平台的应用预计将在各种更多低成本、短周期的空间任务中得到广泛推广.
(2) 卫星智能推理
当前深度学习模型对计算资源的高需求, 给实际应用带来了巨大的挑战. 现有研究主要聚焦于设计模型切分
策略, 通过优化能耗、通信或计算等代价函数, 寻找满足用户或系统需求的分配方案. 主流深度学习模型通常具有
良好的结构特性, 可采用纵向切分、横向切分及混合切分等方法, 将切分后的子模型按照依赖关系部署至云端和
边缘端. 在纵向切分方面, DeepThings [44] 采用可伸缩的融合块分区切分 CNN, 既最小化内存占用, 又暴露并行性,
同时通过创新的工作调度流程减少整体执行延迟. 在横向切分方面, Neurosurgeon [45] 首次提出分层切分策略, 有效

