Page 49 - 《软件学报》2025年第12期
P. 49

5430                                                      软件学报  2025  年第  36  卷第  12  期


                                                         i
                             i
                                                              t
                                         t
                 其中,  h it  表示第   个隐藏层的第   个神经元,   w it  是第   层第   个神经元对应的权重矩阵,     b it  是该神经元对应的偏置
                 值,  σ(·) 为激活函数. 本模型含有     3  个隐藏层, 分别包含    34、21、10  个  ReLU  神经元. 在模型优化方面, 本模型通
                 过计算模型预测结果与真实结果之间的损失值, 使用梯度优化结合反向传播算法更新形成模型的个性化参数以强
                 化模型分类预测能力, 其优化方法根据公式             (2) 和公式  (3) 计算得到.

                                                       loss = f (ˆy i ,y i )                          (2)

                                                            ∂f (θ, x i ,y i )
                                                    θ = θ −η×                                         (3)
                                                               ∂θ
                                                               θ
                 其中,   ˆ y i  为模型预测结果,  y i  为真实结果,   f (·)  为损失函数,   为模型参数. 输出层输出对于接管绩效等级的分类
                 (优秀、良好、一般). 模型的学习过程如图            5  所示. 按照  8:2  的比例将多模态数据集划分为训练集和测试集, 并采
                 用十折交叉验证对模型进行评估, 其中            70%  的数据用以对模型进行训练, 10%        的数据用以对训练后的模型进行验
                 证, 剩下  10%  的数据作为测试集在测试阶段对模型的分类能力进行测试. 模型训练使用随机梯度下降法作为优化
                 方法, 初始学习率设定为       0.001, 选用交叉熵   (cross-entropy) 作为损失函数计算预测值与真实值之间的误差, 批大小
                 设置为   32. 训练经过  250  次迭代后停止以防止模型过拟合. 实验结果在第             4.3  节中展示.


                                                                带标签
                                                    开始
                                                                 数据
                                                  计算输出y ˆ

                                                    计算
                                                  损失值L           参数更新

                                                    L收     否
                                                    敛?           梯度优化
                                                      是
                                                    结束

                                                 图 5 神经网络模型训练流程

                  3.3   特征分析模型
                    本研究基于     SHAP  模型  [47] 构建了特征分析模型, 基于博弈论原理中的          Shapley  值理论, 直观地展示有条件自
                 动驾驶下接管绩效中特征的影响力增强用户对复杂模型内部机制的理解. SHAP                         模型将机器学习模型中的特征视
                 为合作博弈中的玩家, 每个特征的          Shapley  值即为其对模型预测结果的平均边际贡献, 其计算公式如公式                  (4). 这一
                 计算过程充分考虑了特征间的相互作用和每种可能的特征组合情况, 确保了特征重要性评估的公平性和全面性.
                 具体而言, Shapley  值通过遍历所有特征子集, 计算在加入特定特征前后预测结果的变化, 进而量化该特征的贡献
                 度. 计算公式遵循     Shapley  值的经典定义, 体现了特征在所有可能的特征集合中的平均增量效益, 从而准确、公平
                 地反映了各个特征的重要性.

                                                        k!(p−k −1)!
                                                     ∑
                                            f Shapley (X j ) =   ( f(S ∪ j)− f(S ))                   (4)
                                                            p!
                                                    S ⊆N\ j
                 其中, S  为特征子集集合, p    为特征数量,    N\ j 代表除了  X j  之外, 所有特征的排列组合,     f(·) 表示模型的预测结果. 通
                 过计算每个特征的       Shapley  值, SHAP  方法可以解释模型对于每个特征的预测结果是如何形成的. 较高的                  Shapley
                 值表示该特征对于预测结果的贡献较大, 较低的                Shapley  值表示该特征对于预测结果的贡献较小. 通过将每个特
                 征的  Shapley  值与其对应的特征值结合起来, 可以可视化地呈现出每个特征对于预测结果的正向或负向影响.
   44   45   46   47   48   49   50   51   52   53   54