Page 46 - 《爆炸与冲击》2026年第3期
P. 46
第 46 卷 康正东,等: 基于人工神经网络的金属材料本构模型在显式有限元中的实现 第 3 期
仅与前后层的神经元连接,不与同层的神经元连接。最后一层是输出层,在本研究中,仅由一个神经元
σ 的值。
组成,提供应力
在 ANN 中,除输入层外的每个层中,无论其包含多少个神经元 j,都有一个可变项目数 k 的输入和
一个固定数量项目 j 的输出。在前向传播算法中,当前层的输出将作为下一层的输入,即任何包含 j 个
神经元的隐藏层 i,会对紧邻的前一层(第 i−1 层,包含 k 个神经元)输出向量 g 进行加权的加权和:
k
∑
(i)
(i)
s = z g n +b (i) (5)
m mn m
n=1
s (i) 为第 i 层的第 m z (i) 为第 i 层第 m 个神经元与第 k−1 层第 n 个神经元之间的
式中: m 个神经元的节点值, mn
b (i) 为第 i 层第 m 个神经元的偏置项。采用矩阵表示法,式 (5) 可改写为:
权重参数, m
(i)
(i)
s = Z · g+ b (i) (6)
[ ] T [ ] T
(i) (i) (i) (i) 中包含第 (i) (i) (i) (i)
式中: s = s 1 , s 2 ,..., s j i 层隐藏层中进行求和运算得到的节点值, b = b 1 ,b 2 ,...,b j
为第 k 层的节点偏置向量, Z (i) 为第 i 层的权重参数矩阵。要求激活函数具有可微性,因此选择 Sigmoid
sig (x) 激活函数和双曲正切 tanh x 激活函数:
1
sig(x) = (7)
1+exp(−x)
exp x−exp(−x)
tanh x = (8)
exp x+exp(−x)
输出 y 是根据神经网络的最后一个隐藏层 l 来计算的,其中包含 k 个神经元:
k
∑
(l)
y = z n ˆs +b (9)
n
n=1
n
b s (l) 为最后一个隐藏层 l 的输出,b 为输出神经元对应的偏置项,z 为最后一个隐藏层与输出神经元
式中: n
之间的 k 个权重参数。
ANN 为了训练效果和数值稳定,将塑性应变 ε 、塑性应变率 ˙ ε 和温度 T 的相应值在 [0, 1] 内进行归
一化处理。因此,ANN 的输入量 x 计算如下:
x− x min
x = (10)
x max − x min
式中:x mi n 和 x ma x 分别为相应变量的最小值和最大值。因此,应力 σ 可以从 ANN 的输出 y 中获得:
(11)
σ = (σ max −σ min )y+σ min
在神经网络的训练阶段,这些输入值与隐藏层和输出层中的权重和偏置一同构成神经网络的训练
参数。
2.2 ANN 模型训练效果评估
为了评估模型的效果,利用有限元模型生成训练集和测试集。训练集包含 2 500 个数据点:塑性应
ε∈[0,0.5] 中取 100 个值;塑性应变率取 ˙ ε∈{0.02,0.2,20,200,2 000} s ;温度也取 T ∈{20,400,
–1
变 5 个值, 5 个值,
–1 T ∈[20,1 000] ℃ 范围内随机生成的
600,800,1 000} ℃。测试集中包含在 ε∈[0,0.5] ˙ε∈[0.02,2 000] s , 5 000
,
个数据点。与大多数机器学习不同的是,该测试集并不在训练阶段使用,而仅在验证期间使用。这 2 个
˙ ε 、温度 和流动应力 σ 的值,不同之处在于在测试集中包含式 (4) 计算的
数据集都包含应变 ε 、应变率 T
3 个导数的值。
在 Ming 等 [30] 提出的径向归一算法中,通过用户自定义材料子程序 VUHARD,在 Abaqus/Explicit 中
实现神经网络的集成调用时,要求神经网络不仅返回应力 σ,还需 3 个偏导数 ∂σ/∂ε ∂σ/∂˙ε 、和 ∂σ/∂T ,
、
因此神经网络本身必须具备导数计算能力。
′ T
′
′
y = [y ,y ,y ] ,其中包含由式 (9) 定义的神经网络输出 x 的 3 个偏导数。
′
通过计算向量 y 对输入向量
1 2 3
031403-7

