Page 217 - 《爆炸与冲击》2026年第5期
P. 217

第 46 卷                赵春风,等: 基于XGBoost的PC板爆炸损伤评估模型                              第 5 期


                                                                    ′
                                                   f (x) ∼ N(µ(x),k(x, x ))                             (6)
               式中:f(x) 为高斯过程,N 为高斯过程的正态分布函数,μ(x) 为均值函数,k(x,x′) 为协方差函数。


                   y                    Observation                               Dataset
                                        Mean prediction
                                        Confidence interval
                                                                                         . . .

                                                                   Decision tree-1  Decision tree-2  Decision tree-N

                                                                     Result-1    Result-2    Result-N
                          95% confidence level                              Majority voting/averaging

                   O                                 x                          Final result

                                                           Dataset X


                                       Tree 1{X,θ 1 }  Tree 2{X,θ 2 }       Tree k{X,θ k }
                                                               Node splitting by
                                                               objective function
                                             …          …                          …
                                                                …
                                                Residual    Residual..   Residual
                                         f 1 {X,θ 1 }  f 2 {X,θ 2 }  …  f  k−1 {X,θ k−1 }  f  k {X,θ k }


                                                           Σf k {X,θ k  }

                                                          (c) XGBoost
                                                    图 2    不同算法示意图
                                           Fig. 2    Schematic diagrams of different algorithm

                   RF  是经典的 Bagging 集成学习算法         [24] ,其核心思想是并行构建多个决策树,如图                2(b) 所示,每棵树
               基于原始数据集进行有放回抽样(Bootstrap),通过集成所有决策树的结果得出最终预测结果,回归任务
               采用均值融合,分类任务采用投票机制。而未被抽样选中的样本约占总样本的 1/3,称为袋外样本(out-
               of-bag,OOB),可独立评估模型泛化性能。
                   XGBoost 是一种高效的梯度提升树算法,在回归和分类问题上表现优异,其原理如图                                     2(c) 所示。
               XGBoost 通过迭代方式按顺序构建多个弱预测模型,并将它们加权集成。每次迭代旨在最小化包含损失
               函数和正则化项的目标函数,其函数形式为:

                                                       n           k
                                                      ∑ (      ) ∑
                                                F obj =  L ˆy j ,y j +  µ( f t )                        (7)
                                                      j=1         t=1
               式中:L  为模型偏置的损失函数,μ            为用于抑制模型复杂性的正则项。这种渐进式集成策略有效降低了
               模型的方差和偏差,显著提升了预测性能。XGBoost 通过引入正则化机制有效防止过拟合。

                3.3    不同机器学习模型的对比分析
                   表  4  给出了  3  种模型在随机抽样情形下的性能指标,通过回归评价指标、真实值与预测值对比,以
               及残差分析方面的预测结果评价模型的预测性能。由表                          4  可以看出:XGBoost 模型表现最优,其在测试
               集上的   σ    、σ   E  和  ξ 分别为  2.874、2.185 mm  和  0.136。相比之下,RF  模型的误差指标最高,其对应测
                       RMSE  MA
               试集的   σ RMSE 、σ MA E  和  ξ 分别为  5.659、3.837 mm  和  0.268。从模型拟合优度来看,XGBoost 模型拟合性能
               表现优异,其训练集和测试集的决定系数                   R 分别为    0.998  和  0.975。GPR  与  RF  模型的拟合效果均次于
                                                     2


                                                         051443-6
   212   213   214   215   216   217   218   219   220   221   222