Page 337 - 《软件学报》2026年第1期
P. 337

334                                                        软件学报  2026  年第  37  卷第  1  期


                 压缩, 同时降低内存占用并提升运行速度. 2018           年, 谷歌提出了一种新的量化方案           [35] , 将神经网络的权重和激活值
                 压缩为   8-bit 整数, 并将部分参数    (如偏置向量) 保留为      32-bit. 这种方法针对仅支持整数运算的硬件进行了优化,
                 大幅提升了量化推理的效率. 此外, 研究者还提出了乘积量化和矢量量化技术                         [36] , 进一步探索其在深度学习模型
                 压缩中的应用. 矢量量化通过将多个标量数据组合成矢量, 并对整个矢量进行量化以实现数据压缩, 同时尽量保持
                 信息完整性. 乘积量化则将输入空间划分为多个子空间, 对每个子空间的权值矩阵进行聚类, 生成包含多个码字的
                 码书, 通过少量码字近似表示相同维度的向量, 从而显著缩减模型体积. 实验表明, 将乘积量化应用于卷积层和全
                 连接层, 不仅能够大幅减少模型体积, 还能显著提升计算效率. 例如, Asiyabi 等人                  [37] 提出了一种用于   SAR  卫星图
                 像的随机量化噪声方法, 通过自适应均匀量化格式在实现高效数据压缩的同时, 保留了                            SAR  原始数据的统计特
                 性, 为多种应用程序提供了高保真的数据基准.
                    (b) 参数剪枝和共享技术. 剪枝技术通过移除模型中的冗余参数或网络连接, 降低模型的复杂度和存储需求,
                 根据剪枝粒度的不同, 可以分为结构化剪枝和非结构化剪枝. 结构化剪枝的操作粒度较大, 通常删除整个卷积核或
                 多个通道等参数组合, 显著减小模型规模并提高硬件加速效果. 然而, 这种方法通常会引起一定的准确率降低. 非
                 结构化剪枝的操作粒度更小, 可以灵活地移除任意冗余参数, 不受特定结构的限制, 可在保持模型精度的同时实现
                 更高的稀疏化. 然而, 由于剪枝后模型结构不规则, 硬件加速的实现较为困难. Han                     等人  [38] 提出了一种基于阈值选
                 择的非结构化剪枝策略, 通过设定阈值剔除权值较小的参数                    (如突触和神经元), 在降低计算量的同时保持模型稀
                 疏化效果, Lin  等人  [39] 提出了一种基于剪枝的神经网络模式解释方法, 通过修剪神经网络中的冗余参数以突出关
                 键权重部分, 从而提升了模型的可解释性, 为卫星图像分析提供了优化新思路.
                    (c) 知识蒸馏技术. 知识蒸馏通过“学生-教师”范式将复杂模型提炼为更紧凑的小模型, 从而减少计算资源需
                 求. 其基本思想是通过 Softmax 函数学习教师模型的类别分布, 并将大规模教师模型的知识传递给学生模型. 这种
                 方法显著减少了训练资源消耗, 并在各种图像分类任务中取得了显著的性能提升. 然而, 知识蒸馏技术仅适用于具
                 有  Softmax 损失函数的分类任务, 限制了其应用范围. 这些方法主要通过对模型的参数和结构来实现压缩, 从而减
                 少计算量, 提升模型推理效率与性能. 模型压缩本质是模型参数量、计算复杂度和推理性能之间的权衡. 因此, 在
                 进行模型压缩时, 需综合考虑其在特定应用场景下的实际需求, 以避免性能损失和精度降低的过度影响. 例如,
                 Zhang 等人  [40]  提出了一种两阶段检测网络, 在精馏学习阶段引入自适应注意力机制, 以捕捉教师网络与学生网络
                 之间的差异特征, 从而提升了卫星视频中目标跟踪的准确性, 同时保持了较高的计算效率. Zhou 等人                            [41]  设计了一
                 个多层语义知识对齐蒸馏框架, 使学生模型能够学习复杂模型中提取的语义信息. 该方法应用于遥感图像的密集
                 预测, 并通过知识蒸馏自适应地选择有用的语义信息, 在目标分割任务中实现了出色的性能.
                    高性能星载计算平台发展现状: 相比传统数据处理器, 越来越多的硬件平台开始支持深度学习模型的快速部
                 署与高效执行. 这些平台不仅包括传统的             CPU  和  GPU, 还涵盖了专为深度学习算法设计的硬件, 如高性能               FPGA
                 等可编程逻辑加速器. 同时, 多个卫星项目的研究团队已成功完成高性能计算单元的在轨验证. 例如, 中国首颗商
                 业  SAR  卫星“海丝一号” (代号 HISEA-1) 搭载了英伟达       Jetson TX1  智能处理器, 用于卫星在轨目标识别         [42] . 该卫
                 星数据处理系统结合 GPU 执行复杂目标检测算法, CPU 完成图像分割等较低复杂度的任务, 通过合理分配计算
                 负荷, 实现了高效目标识别. 此外, 由中国科学院主导的空间新技术试验卫星                      (代号 SATech-01) 搭载异构多核智能
                 处理单元, 成功完成了深度学习算法的在轨验证                [43] , 该单元融合了多种智能处理单元架构, 包括英伟达              Jetson
                 TX2i、华为   Atlas 200  等, 为在轨功能验证提供了丰富的计算资源. 随着卫星逐渐小型化并降低成本, 基于高性能
                 COTS  计算平台的应用预计将在各种更多低成本、短周期的空间任务中得到广泛推广.
                    (2) 卫星智能推理
                    当前深度学习模型对计算资源的高需求, 给实际应用带来了巨大的挑战. 现有研究主要聚焦于设计模型切分
                 策略, 通过优化能耗、通信或计算等代价函数, 寻找满足用户或系统需求的分配方案. 主流深度学习模型通常具有
                 良好的结构特性, 可采用纵向切分、横向切分及混合切分等方法, 将切分后的子模型按照依赖关系部署至云端和
                 边缘端. 在纵向切分方面, DeepThings     [44] 采用可伸缩的融合块分区切分        CNN, 既最小化内存占用, 又暴露并行性,
                 同时通过创新的工作调度流程减少整体执行延迟. 在横向切分方面, Neurosurgeon                   [45] 首次提出分层切分策略, 有效
   332   333   334   335   336   337   338   339   340   341   342