Page 242 - 《软件学报》2025年第10期
P. 242

黄静 等: 基于代码控制流图的庞氏骗局合约检测                                                         4639


                    CNN (convolutional neural network) [51] : 主要用于图像处理的神经网络结构, 通过卷积操作提取局部特征并利
                 用池化操作降低数据维度.
                    GRU (gated recurrent unit) [52] : 类似于  LSTM  的一种  RNN  变体, 具有更简单的结构, 但仍然能够有效地处理序
                 列数据.
                    Transformer [48] : 基于自注意力机制的神经网络结构, 适用于处理序列数据, 在自然语言处理领域中取得了显著
                 的成果.
                    实验结果如表      1  所示.

                                              表 1 不同特征学习模型的对比实验

                                模型           Accuracy      Precision     Recall       F1-score
                                RNN           0.727 3       0.756 3      0.645 8      0.696 7
                               LSTM           0.757 6       0.594 1      0.863 6      0.703 9
                                GRU           0.787 9       0.606 1      0.666 7      0.635 0
                                CNN           0.818 2       0.641 7      0.777 8      0.703 2
                             Transformer      0.802 5       0.816 7      0.741 8      0.777 5
                              本文模型            0.893 0       0.867 4      0.866 7      0.867 0

                    从表  1  可以看出, 在庞氏骗局合约检测任务中, RNN、LSTM             和  GRU  模型表现最差, 其准确率、精确率、召
                 回率和   F1  分数均较低. CNN  和  Transformer 在一定程度上提升了性能, 但是效果仍旧不够理想, 召回率和               F1  分数
                 这两个指标均未达到       80%. 而本文提出的图      Transformer 模型在庞氏骗局合约检测任务中表现最佳, 具有更高的检
                 测性能, 其中准确率达到了        89.3%. 这说明将   GCN  与  Transformer 相结合能够充分利用图结构数据的局部连接信
                 息和全局关系学习能力, 从而提高庞氏骗局合约的检测效果.
                  3.4   参数敏感性实验
                    本节对图    Transformer 模块  GCN  层数对检测结果的影响进行了实验验证, 对应的实验结果如图                  8  所示. 如图
                 所示, 随着  GCN  层数的增加, 模型对庞氏骗局合约的检测性能不断提升. 这说明增加                     GCN  层数可以帮助模型更
                 好地学习和理解数据之间的复杂关系, 从而提高模型的性能. 然而, 需要注意的是, 随着                         GCN  层数的增加, 模型的
                 复杂性和计算量也会增加, 可能会导致过拟合或训练时间增加. 因此, 在选择                      GCN  层数时需要权衡性能和计算效
                 率, 本文的模型选择了      3  层  GCN  网络, 这既考虑到了性能的提升, 也考虑到了计算效率的问题.

                                             1.0
                                                   Accuracy  Precision  Recall  F1-score
                                                           0.83      0.84
                                                0.8
                                             0.8                       0.78 0.75 0.76
                                                    0.73     0.75 0.740.74
                                                  0.68  0.7
                                             0.6
                                            数值
                                             0.4

                                             0.2

                                              0
                                                1 GCN layer  2 GCN layers  3 GCN layers
                                                图 8 不同   GCN  层数的性能指标

                  3.5   注意力机制讨论实验
                    为了验证本文模型在特征学习方面的性能, 本节对                 Transformer 注意力机制进行了实验验证. 图       9  展示了引入
                 不同注意力机制对实验性能的影响. 具体来说, 图中对比了以下                   4  种情况: 不引入注意力机制       (None-Att)、引入节
   237   238   239   240   241   242   243   244   245   246   247