Page 190 - 《软件学报》2021年第5期
P. 190

1414                                     Journal of Software  软件学报 Vol.32, No.5,  May 2021

                              Table 3    Comparison of the fairness definitions in machine learning algorithms
                                          表 3   机器学习算法中典型的公平性定义对比
                         定义      个体/群体             公式                  描述           优势        挑战
                          忽略                                                                难以剔除
                     感   受保护      群体              y ˆ =  f  () x    不显式地使用         普适性      属性中受
                     知   属性公平                                        受保护属性                  保护信息
                     公    感知                                      包括受保护属性在          度量
                     平                                                                      度量距离
                     性   受保护      个体      D(f (x,a),f (x′,a′))≤d((x,a),(x′,a′))   内的属性相似个体   意义下   不易确定
                         属性公平                                      得到相似的对待          公平
                                                                                            易造成算法
                          统计                                         每个群体的         有法律
                     统    均等      群体         P  ˆ (| = ya  0) =  P  ˆ (| = y a  1)    输出结果相似   原则支撑   效用降低;导
                     计                                                                      致惰性做法
                     公    几率      群体       ˆ ( P y  =  1| =  a  0, ) = y  ˆ ( P y  =  1| =  a  1, ) y  每个群体输出结果的
                     平    均等                                      错误率和正确率相等       惩罚惰性      易受带偏差
                     性    测试      群体      ( P y  =  1| =  a  0,  ˆ) = y  ( P y  =  1| =  a  1,  ˆ) y  每个群体输出结果的  做法   的标记影响
                          均等                                         置信度相等
                         纯干预      群体             ˆ ( P y  0 ) =  ˆ ( P y  1 )    干预前后输出   可解释
                          公平                     a =    a  =       结果的分布相同
                     因                                            现实世界和反事实世      可解释;适用
                     果   反事实      个体/         ˆ ( P y  0 |, ) =xa  ˆ ( P y  1 | , )xa    界的输出结果在给定  不同粒度的   依赖假设的
                     公    公平      群体          a  =      a  =      可观察属性时相同        保护对象       因果图
                     平                                            干预沿指定路径传       可解释;保留
                     性  特定路径      群体           ˆ ( P y  0 |π =  ˆ ( P y  1 | ) π    播,干预前后输出   受保护属性
                                                   )
                          公平                    a =     a =
                                                                   结果的分布相同        本身的差异

                 3    公平机器学习
                    公平机器学习算法旨在发布近似准确的算法模型,且输出结果符合某种公平性定义.对机器学习算法模型
                 进行公平性提升时,公平性定制(fairness-tailored)的正则项或者强约束条件常被用于改进机器学习算法,而上述
                 介绍的公平性定义为公平性提升方法的设计提供理论支撑.在实际的机器学习任务中,3 种实现满足给定公平
                 性定义的机制已经在第 1.3 节介绍.根据使用机制以及对机器学习过程的理解,本文主要从公平表征任务、公平
                 建模任务和公平决策任务这 3 个角度展开对现有工作的梳理:公平表征任务建立公平数据集或提取公平数据
                 特征;公平建模任务建立公平机器学习模型;公平决策任务使用机器学习模型的输出结果进行公平决策.
                    综上所述,解决 3 项任务可以实现机器学习模型到公平机器学习模型的衍化.
                 3.1   公平表征任务
                    数据所有者从公平表征任务切入,努力寻找一种作用到 X 和A的特征变换方法,实现保留与 Y 有关的信息
                 且近似地与A无关的特征 Z,即 (, ) ⎯⎯→AX     g   ⎯Z  ⎯  f ′ →Y ,其中,f ′表示与 f 有相同学习目标的模型.与 f 不同的是,f ′
                 的输入是 X 和A由特征变换 g 得到的 Z.直观地理解:如果不同群体中成员的表征形式是相似的,那么任何基于
                 这些表征建立的算法所做决策应独立于受保护属性A                   [23] .得益于深度神经网络强大的表达能力,现有工作通常
                 将公平表征任务建模为双人博弈模型              [34] ,即数据所有者和攻击者做对抗学习.攻击者的核心目标是推断出群体
                 成员的受保护属性;而数据所有者的目标是去除与群体受保护属性有关的信息,且同时保留与效用有关的信息
                 来进行准确预测.表 4 总结了公平表征任务的具体信息.公平表征任务重点集中在数据预处理阶段,下面分别介
                 绍基于信息论、生成对抗网络和解耦学习的公平表征任务.
                                                Table 4  Fair representation task
                                                    表 4   公平表征任务
                                             目标               数据表征学习
                                             输入            与任务相关的训练样本
                                             输出        公平的合成数据集,公平的特征表示
                                            公平性              统计公平,因果公平
                                          偏差消除机制               预处理机制
   185   186   187   188   189   190   191   192   193   194   195