Page 43 - 《爆炸与冲击》2026年第5期
P. 43

第 46 卷          刘传志,等: 基于深度学习的亚稳态高熵合金高应变率冲击响应预测                                 第 5 期


                                         0.35
                                                                              0.25
                                         0.30                                 0.20
                                       Normalized true stress  0.20           0.15 Phase volume fraction
                                         0.25


                                         0.15
                                                                              0.10
                                         0.10
                                         0.05                      Prediction  0.05
                                                                   Ground truth
                                           0                                  0
                                             0  0.05  0.10  0.15  0.20  0.25  0.30  0.35
                                                         True strain
                                               (c) True stress and phase volume fraction
                                                       curves for shear
                                              图 10    测试集上预测值与真实值的对比
                                       Fig. 10    Comparison of predicted and true values on the test set

                3    讨 论

                3.1    学习率对训练过程的影响

                   学习率是卷积神经网络训练过程中最关键的超参数之一,它决定了梯度下降过程中参数更新的步
               长,直接影响模型的收敛速度、稳定性以及整体的优化性能。通常,较大的学习率会导致参数更新步长
               过大,模型难以稳定地逼近全局最优,甚至可能引发梯度爆炸或参数振荡,最终导致训练过程无法收
               敛。相反,较小的学习率通常可以获得更稳定的训练过程,但同时也会减慢收敛速度,降低优化效率,并
               可能导致模型陷入局部最优。
                   为了探究学习率对模型性能的影响,采用不同数量级的学习率训练了卷积神经网络。具体来说,学
               习率(R )设置为     10 (n=1,2,3,4),并使用    Adam  优化器,监测训练损失和验证损失,以评估不同学习率下
                               −n
                     l
               的优化行为。如图         11(a) 所示,当学习率设置为         0.1  时,训练损失出现了明显的振荡,甚至出现了极端的
               数值波动,表明模型完全无法收敛。同时,验证损失一直处于较高水平,没有下降趋势,这表明模型无法
               有效地学习到有意义的数据特征。这种不稳定性是由于学习率过大使参数更新过于激进,进而导致模
               型持续超越最优点而无法稳定下降,最终训练失败。图                         11(b) 中,当学习率降低至        0.01  时,训练过程开始
               呈现一定程度的收敛,但仍然出现了明显的振荡。虽然训练损失相比                                0.1  的情况有显著降低,但在某些
               训练阶段仍然出现了损失的突然飙升。这种现象很可能是由于学习率仍然较高,导致梯度更新不稳定,
               容易出现梯度爆炸或参数波动过大的情况。图                      11(c) 展示了学习率为       0.001  时的训练场景。此时,训练
               损失和验证损失在训练初期都迅速下降并最终趋于稳定。在整个训练过程中,损失曲线没有出现明显


                       3.0
                                No-convergence      Train loss   0.16          Data oscillation  Train loss
                       2.8                          Val. loss                                 Val. loss
                                                                 0.14
                       2.6                                       0.12
                       2.4                                       0.10
                      Loss  2.2                                 Loss  0.08
                                                                 0.06
                       2.0
                                                                 0.04
                       1.8
                                                                 0.02
                       1.6                                         0
                             0     50    100    150   200            0     50     100    150    200
                                        Epoch                                      Epoch
                                     (a) R l =0.1                             (b) R l =0.01



                                                         051422-11
   38   39   40   41   42   43   44   45   46   47   48