Page 314 - 《软件学报》2025年第5期
P. 314

2214                                                       软件学报  2025  年第  36  卷第  5  期


                 原始数据集中注入污染数据进行操纵攻击, 可以使机器学习分类器的分类边界发生偏移或者改变, 从而主动篡改
                 机器学习模型, 产生错误的输出结果, 造成安全隐患               [9] . 例如, 微软开发的与  Twitter 用户交谈的聊天机器人      Tay, 利
                 用社交网络上的对话数据进行训练, 机器人              Tay  在上线  16 h  后被关闭, 因为它受到伪数据攻击后开始提出与种族
                 主义相关的评论      [10] .
                    LDP  协议伪数据攻击的相关工作已有进展. 一些工作               [11–14] 观察到特定的随机响应方案容易受到操纵攻击, 并
                 探讨了潜在的抵御方法. Cao       等人  [15] 对  kRR [16] 、OUE [17] 、OLH  [17] 进行伪数据攻击, 将攻击者选择的项目估计为高
                 频率项目, 操纵数据估计结果. 文献         [15] 攻击的这   3  种  LDP  机制设计较为简单, 现在已经有一些性能更好的            LDP
                 机制. 另外, Cao  等人  [18] 还对频繁项识别进行了伪数据攻击. Wu           等人对键值数据的       LDP  协议  (PrivKVM  [19] 、
                 PCKV-UE [20] 、PCKV-GRR [20] ) 进行伪数据攻击, 将攻击转化为一个双目标优化问题, 同时最大化攻击者选择的目
                 标键的频率和均值, 弥补了对         LDP  协议中键值数据攻击的空白. 此外          Wu  等人提出了两种针对键值数据           LDP  协
                 议的伪数据攻击的防御措施, 包括基于单类分类器的检测和基于异常得分的检测. Li 等人                          [21] 针对均值估计和方差
                 估计的   LDP  协议  (SR [22] 、PM [23] ) 进行伪数据攻击, 该攻击可以将估计的均值和方差调整到攻击者所设定的目标
                 值. 与前人攻击不同的是, Li 等人提出的攻击包含输入污染攻击和输出污染攻击. 输入污染攻击可以通过假用户
                 向  LDP  协议中注入虚假的输入数据, 输出污染攻击可以修改受控用户端的                    LDP  扰动机制的输出, 它为      LDP  协议
                 中的伪数据攻击提供了一个新的视角.
                    基于上述分析, 本文对两种效用最优的              LDP  协议  (子集选择机制和环机制) 进行伪数据攻击, 根据这两种
                 LDP  协议的特点, 为假用户设计使攻击效用最大化的伪造数据. 攻击目标是提高选定项目的估计频率, 降低子集
                 选择机制和环机制的整体性能.

                 2   预备知识与问题定义

                    这里先给出     LDP  频率机制所考虑的问题场景. 假设有           n  个用户, 每个用户持有一个私有的隐私数据. 用户原
                 始数据的取值范围为{1, 2,…, d}, 简记为       [d]. 数据收集方的任务是估计输入数据取值范围中每个值                 x∊[d] 在所有
                 n  个用户中出现的频率, 即原始数据等于          x 的用户在所有用户中的比例.
                    LDP  机制可以在保护每个用户数据不泄漏给数据收集方的同时, 使得数据收集方获得高准确度的频率估计
                 结果. 然而, LDP  机制也面临着恶意用户伪数据攻击等问题, 下面简要介绍                  LDP  模型和实现机制, 并定义本文所关
                 注的伪数据攻击.

                 2.1   本地差分隐私
                    本地差分隐私是差分隐私的变体, 能够在不可信环境中保护用户隐私数据. 用户使用随机化扰动机制来扰动
                 他们的数据, 数据收集方可以根据该随机化扰动机制来估计某些统计量, 例如频率. 本质上, 对于任意两个输入值
                 v 1  和  v 2  , LDP  确保了数据收集方在接收到输出  y 时, 不能分辨出输入是     v 1  还是  v 2  . 本地差分隐私定义如下.
                    定义   1. 本地差分隐私. 一个随机化算法         R:  D → Y  满足   -本地差分隐私, 当且仅当, 对任意两个用户的数据
                                                               ε
                 v 1 , v 2 ∈ D , 以及任意可能的输出  y ∈ Y  满足如下不等式:

                                                             ε
                                                 Pr(R(v 1 ) = y) ⩽ e Pr(R(v 2 ) = y)                  (1)
                    从定义   1  中可以看出, LDP            ε 决定隐私保护的强度.
                                         中隐私预算
                 2.2   子集选择机制
                    子集选择机制      [6,7] 是一种用于类别型数据频率估计的         LDP  协议, 其对项目频率的估计是无偏估计, 均方误差
                    (   ε   )
                       e d
                 为  Θ         . 相比于其他   LDP  频率估计机制, 子集选择机制估计频率的均方误差数量级最小, 具有最优效用.
                        ε
                     n(e −1) 2
                 在该机制中, 每个用户需要从         d  个数据中随机抽取     k (1 ⩽ k ⩽ d) 个数据, 传输给数据收集方, 依照概率       p  决定是否
                 提交自己的真实数据:

                                                             ke ε
                                                       p =                                            (2)
                                                          ke +d −k
                                                            ε
   309   310   311   312   313   314   315   316   317   318   319