Page 242 - 《软件学报》2025年第10期
P. 242
黄静 等: 基于代码控制流图的庞氏骗局合约检测 4639
CNN (convolutional neural network) [51] : 主要用于图像处理的神经网络结构, 通过卷积操作提取局部特征并利
用池化操作降低数据维度.
GRU (gated recurrent unit) [52] : 类似于 LSTM 的一种 RNN 变体, 具有更简单的结构, 但仍然能够有效地处理序
列数据.
Transformer [48] : 基于自注意力机制的神经网络结构, 适用于处理序列数据, 在自然语言处理领域中取得了显著
的成果.
实验结果如表 1 所示.
表 1 不同特征学习模型的对比实验
模型 Accuracy Precision Recall F1-score
RNN 0.727 3 0.756 3 0.645 8 0.696 7
LSTM 0.757 6 0.594 1 0.863 6 0.703 9
GRU 0.787 9 0.606 1 0.666 7 0.635 0
CNN 0.818 2 0.641 7 0.777 8 0.703 2
Transformer 0.802 5 0.816 7 0.741 8 0.777 5
本文模型 0.893 0 0.867 4 0.866 7 0.867 0
从表 1 可以看出, 在庞氏骗局合约检测任务中, RNN、LSTM 和 GRU 模型表现最差, 其准确率、精确率、召
回率和 F1 分数均较低. CNN 和 Transformer 在一定程度上提升了性能, 但是效果仍旧不够理想, 召回率和 F1 分数
这两个指标均未达到 80%. 而本文提出的图 Transformer 模型在庞氏骗局合约检测任务中表现最佳, 具有更高的检
测性能, 其中准确率达到了 89.3%. 这说明将 GCN 与 Transformer 相结合能够充分利用图结构数据的局部连接信
息和全局关系学习能力, 从而提高庞氏骗局合约的检测效果.
3.4 参数敏感性实验
本节对图 Transformer 模块 GCN 层数对检测结果的影响进行了实验验证, 对应的实验结果如图 8 所示. 如图
所示, 随着 GCN 层数的增加, 模型对庞氏骗局合约的检测性能不断提升. 这说明增加 GCN 层数可以帮助模型更
好地学习和理解数据之间的复杂关系, 从而提高模型的性能. 然而, 需要注意的是, 随着 GCN 层数的增加, 模型的
复杂性和计算量也会增加, 可能会导致过拟合或训练时间增加. 因此, 在选择 GCN 层数时需要权衡性能和计算效
率, 本文的模型选择了 3 层 GCN 网络, 这既考虑到了性能的提升, 也考虑到了计算效率的问题.
1.0
Accuracy Precision Recall F1-score
0.83 0.84
0.8
0.8 0.78 0.75 0.76
0.73 0.75 0.740.74
0.68 0.7
0.6
数值
0.4
0.2
0
1 GCN layer 2 GCN layers 3 GCN layers
图 8 不同 GCN 层数的性能指标
3.5 注意力机制讨论实验
为了验证本文模型在特征学习方面的性能, 本节对 Transformer 注意力机制进行了实验验证. 图 9 展示了引入
不同注意力机制对实验性能的影响. 具体来说, 图中对比了以下 4 种情况: 不引入注意力机制 (None-Att)、引入节

