Page 194 - 《软件学报》2021年第5期
P. 194

1418                                     Journal of Software  软件学报 Vol.32, No.5,  May 2021

                 4.1   公平机器学习的典型应用案例
                    •   计算机视觉的公平机器学习
                    在视觉识别任务中,模型可能放大标记和受保护属性间的联系.adv@image/conv4/conv5 算法                      [56] 尝试利用
                 对抗学习消除这种联系,获得消除受保护属性相关信息的掩码,保留与目标标记相关的信息.文献[57]认为,学习
                 生成合成数据集比学习隐式嵌入有更好的可解释性.为解决缺少目标数据的问题,最大化残差(公平表征和原数
                 据的差异)和受保护属性相关性,同时最小化表征与受保护属性相关性,从而得到保留语义信息的公平表征.文
                 献[58]观察目标识别系统对家庭用品的识别准确率,发现对于部分目标识别系统,在低收入国家中,日常用品的
                 识别错误率比富裕国家中的高 10%.其研究结果表明,需要进一步探索使目标识别系统适用于不同国家和不同
                 收入水平的群体.文献[59]针对视觉识别分类器存在的标记和受保护属性有伪关系的问题,设计了数据偏见的
                 衡量基准.
                    •   自然语言处理的公平机器学习
                    自然语言的文本中存在对性别的刻板印象,而用于刻画词间语义和句法关系的词嵌入易受到语料库的影
                 响,其偏差通常表现为某些属性(如职业)与某个群体的关联较其他群体更紧密.文献[60]观察到新闻和百科全书
                 等力求客观的文本中存在主观偏见,其提出了 MODULAR 和 CONCURRENT 算法,使用降噪自动编码器生成有
                 类似含义的中立文本.文献[61]认为词嵌入在其几何结构中包含刻板印象,其在嵌入中使用性别词学习性别子
                 空间,通过平衡等方法消除中性词中的偏见.文献[62]发现多标签分类语料库和语义角色标注的数据和模型中
                 存在偏见.RBA 算法     [62] 基于拉格朗日松弛的近似推理算法,在语料库级别从结构化预测模型中校准不公平.文
                 献[63]发现共指解析任务中存在性别偏见,其提出了 WinoBias基准,并提出了数据扩充技术,结合 word2vec,使用
                 基于规则的方法生成辅助数据集,交换男女实体,消除现有共指消解技术中的偏差.文献[64]提供大规模翻译中
                 性别偏见的多语言定量证据,表明在 8 种目标语言中,所有 4 种被试的商业系统和两种学术翻译系统倾向于根
                 据刻板印象而不是语境进行翻译.现有基于词嵌入的偏见评分依赖少量人工标记的词语.为了量化评估大量词
                 语中性别偏见程度,Bias-in-wat 算法     [65] 基于提示和响应的记录构建词语联想图,通过随机游走观察性别偏见在
                 词语间的传播路径,从而实现由词语联想图的内在结构获取词语的偏见评分.文献[66]发现词嵌入偏见传播到
                 机器学习模型中的现象,分别从嵌入级别和算法级别缓解性别歧视、仇外心理等偏见.在预测阶段的不公平性
                 研究中,MT-NLP 工具    [67] 识别任意语句中受保护的属性组,对自然语言处理模型执行蜕变测试,检测违反公平的
                 输入.为了比较各公平性指标的相关性,WEFE 框架               [68] 封装现有公平性指标,输入由描述特征的属性词和描述群
                 体的目标词组成的查询列表,构建公平性度量的抽象视图.
                    •   信息检索和推荐系统的公平机器学习
                    在推荐任务中,隐式反馈数据无需用户花费额外的时间提供评分、标注标签或评论,具有容易获取的优点.
                 文献[69−72]主要从商品的角度考虑基于隐式反馈数据的推荐系统的选择性偏差,即用户只会对部分候选商品
                 提供反馈,且他们的选择往往是非随机的.有序的推荐列表中最常见的选择性偏差是位置偏差,即排序在前的商
                 品比在后的商品更可能收到用户的反馈.对于两个相关度相同的商品,排序在前的会收到更多的反馈,因此在学
                 习到的算法中继续排在前面,这种现象是不公平的.FULTR 算法                   [69] 将用户的关注(即曝光)视为资源向被排序的
                 商品分配,其排序策略通过加权无偏效用估计量并增加基于价值的公平性约束,从而实现商品位置与曝光、相
                 关度成正比的排序算法.文献[70]进一步考虑存在某类型商品曝光不足的情况,提出了 Pairwise Fairness 算法,如
                 果不同类型的商品间或同类商品中,产生交互的商品排名在另一个相关但未产生交互的商品前的可能性不同,
                 模型受到惩罚,从而满足逐对排序公平的推荐.Fair-PG-Rank 算法               [71] 将公平排序学习建模为受公平约束的策略
                 学习问题,通过策略梯度法搜索满足商品曝光限制的公平排名.FairRec 算法                     [72] 将公平推荐问题映射到有约束的
                 公平分配不可分割的商品的问题,保证商品的曝光份额和用户推荐结果的无嫉妒.文献[73]关注底层平台算法
                 频繁更新引起商品曝光度突变的不公平问题,提出了基于整数线性规划的在线增量更新机制,保证商品的平均
                 曝光度平稳过渡.文献[74,75]从用户的角度考虑推荐系统中可能存在的不公平现象,即不活跃用户可能由于其
                 缺乏足够的交互历史而更容易收到不令人满意的推荐结果,他们的推荐结果可能会因协同过滤的性质偏向活
   189   190   191   192   193   194   195   196   197   198   199