Page 272 - 《软件学报》2025年第4期
P. 272

1678                                                       软件学报  2025  年第  36  卷第  4  期


                 例. Chen  等人  [57] 除了调用  GPT-3.5-Turbo  直接生成实体外, 还调用了更先进的     GPT-4, 通过输入图片和文本的方
                 式直接生成实体. 该模型被命名为          GPT4. 各个基于大模型直接生成的方法在数据集              Twitter2015  和  Twitter2017  上
                 的表现如表    5  和表  6  所示, 虽然直接调用   GPT-3.5-Turbo  或者更先进的  GPT-4  接口来生成结果更方便, 但是与其
                 他先进模型    (如: 序列标注模型) 相比, 其结果       (F1  值) 远远不及预期, 因此, 更好的方案可能是先通过            ChatGPT  或
                 者  GPT-4  获取外部知识, 然后将获取得外部知识与原文本或者原图片信息结合并将结合后的信息输入到下游模
                 型  (如  CRF), 最终实现实体分类.


                                 表 5 多模态命名实体识别模型在数据集             Twitter2015  上的性能比较  (%)

                                                                                       所有类型 (Overall)
                          类别                      方法                    模型
                                                                                     Pre    Rec     F1
                                                                      UMGF [15]     74.49  75.21   74.85
                                             基于图结构的前融合                R-GCN [33]    73.95  76.18   75.00
                                                                  R-GCN (w/o Gate) [33]  72.50  76.89  74.60
                                                                           [25]
                                                                      OCSGA         74.71  71.21   72.92
                                                                       文献[9]        74.78  71.82   73.27
                                                                   UMT-BERT-CRF [26]  71.67  75.23  73.41
                                                                       文献[7]        72.75  68.74   70.69
                     基于序列标注的方法
                                           基于注意力机制的前融合                文献[24]        73.50  72.33   72.91
                                                                          [27]
                                                                       ITA          76.52  74.71   75.60
                                                                           [28]
                                                                       MAF          71.86  75.10   73.42
                                                                            [48]
                                                                     FMIT (l=3)     75.11  77.43   76.25
                                                                            [40]
                                                                      HVPNeT        73.87  76.82   75.32
                                                                      文献[41]        71.94  75.13   73.50
                                         基于多模态预训练模型的前融合
                                                                    PGIM_BERT [43]  75.84  77.76   76.79
                                                                    MRC-MNER [8]    78.10  71.45   74.63
                                           基于注意力机制的前融合
                                                                             [39]
                     基于跨度分类的方法           基于图结构的前融合                                                 75.41
                                                                    CAT-MNER
                                                                                    76.19
                                                                                           74.65
                                              基于POE的后融合               文献[54]        74.40  75.76   75.07
                                                                            [43]
                                                                     VanillaGPT     42.96  75.37   54.73
                                                                               [43]
                                                 ChatGPT           PromptGPT (N=1)  51.96  75.24   61.47
                  基于大模型直接生成的方法
                                                                  PromptGPT (N=10) [43]  58.57  74.07  65.41
                                                  GPT-4                GPT4 [57]     -      -      57.98
                 注: “-”表示原文献中未给出该指标对应的实验结果, 下文所有表中的“-”含意相同


                                表 6 多模态命名实体识别模型在数据集              Twitter2017  上的性能比较  (%)

                                                                                      所有类型 (Overall)
                        类别                     方法                    模型
                                                                                   Pre     Rec     F1
                                                                   UMGF [15]      86.54   84.50   85.51
                                                                   R-GCN [33]     86.72   87.53   87.11
                                                                R-GCN (w/o Gate) [33]  85.90  87.57  86.70
                                                                UMT-BERT-CRF [26]  85.28  85.34   85.31
                   基于序列标注的方法                                        ITA [27]      86.69   84.77   85.72
                                        基于注意力机制的前融合
                                                                    MAF [28]      86.13   86.38   86.25
                                                                  FMIT (l=3) [48]  87.51  86.08   86.79
                                                                    文献[41]        86.25   86.38   86.32
                                     基于多模态预训练模型的前融合
                                                                 PGIM_BERT  [43]  89.09   90.08   89.58
   267   268   269   270   271   272   273   274   275   276   277