Page 195 - 《软件学报》2021年第5期
P. 195
刘文炎 等:可信机器学习的公平性综述 1419
跃用户而产生偏差.为了在推荐 Top K 时公平地汇总所有用户的偏好,文献[74]从社会选择理论得到启发,将 Top
K 非个性化的众包推荐重构为定期重复的多重获胜者选举的结果,从而将 Top K 推荐中观察到的偏差归因于选
举制度中沉默的大多数.其提出了基于可转移单票制的投票机制,自动推断用户的偏好排名,保证成比例表征
(大多数用户的候选商品集至少包含他们最喜欢的商品之一)和反多元(拒绝大多数用户不喜欢的高度有偏的
商品)公平.文献[75]针对推荐效用和解释多样性设计全体和个体公平标准,将其形式化为整数规划问题,提出了
启发式重排序的公平约束方法.文献[76]为所有被排名用户创造平等机会,其量化和缓解个人排名机制中的算
法偏差,根据一个或多个受保护属性的期望分布,对用户公平地重新排名.
在搜索任务中,FairCo [77] 算法构建由位置偏差、内容的平均相关性和全局期望相关性决定的无偏统计量,
控制曝光公平性,即每个内容单位偏好下的期望曝光尽可能相似.由于该统计量需要收集多轮迭代的搜索反馈,
所以 FairCo 设计了控制器,防止系统启动时特定组的内容被曝光过多.
• 多智能体系统的公平机器学习
智能体通常优先最大化自身的效用,而多智能体系统中,资源分配与调度不仅需要考虑效用,还需要使资源
分配得当、负载均衡.考虑公平性的多智能体系统能够提升系统的效用和稳定性,但这是个复杂的多目标联合
策略优化问题.为解决社会困境,文献[78]假设智能体有不公平厌恶,在提高自身奖励的同时,保证自己的奖励和
其他智能体间的偏差尽可能小.其通过回报函数引入不公平厌恶理论,促进多智能体间的协同.文献[79]为解决
多智能体序列决策的公平问题,使用线性规划和博弈的方法计算策略,在保证整体性能的情况下,最大限度地提
高智能体的最差性能.FEN [80] 采用一个控制器和多个子策略的分层强化学习架构:控制器通过选择多种与环境
交互行为的子策略来最大化奖励,指定其中一个子策略最大化环境奖励,其他子策略探索不同的公平行为来获
取奖励;平均共识协议协调分布式的多智能体训练.
• 联邦学习的公平机器学习
联邦学习 [81] 是一种在各数据提供方与平台方互不信任的场景下,以保护任何一个参与方原始数据隐私的
方式,用全局机器学习模型协同建模,并拟合异构网络中多个参与的远程设备或组织机构中本地数据的计算框
架.现有方法朴素地最小化聚合损失,可能导致全局模型不成比例地利好部分设备的性能.q-FFL [82] 设计了保证
各个设备间联邦学习模型性能公平分布的优化方法,通过引入施加公平性的权重参数,实现对不同设备损失的
加权计算,使损失较大的设备有较高的权重,从而减小性能分布的方差,从而实现在各设备上得到性能相近的联
邦学习模型.AFL [83] 针对由客户端的分布混合组成的任意目标分布,不以其他模型为代价过拟合特定的模型,最
小化任意受保护类别的最大风险,产生良好意图的公平(good-intent fairness)概念.
4.2 常用数据集和仿真环境
数据集是公平机器学习的关键,本节介绍多个常用数据集和一个仿真环境.
• Adult 数据集:Adult 数据集 [84] 是从 1994 年美国的人口普查数据库中提取的数据,包含 48 842 条记录,
每条记录有年龄、职业、受教育程度、种族、性别、婚姻状况、出生地、每周工作时长等属性,这些
属性有连续的和离散的,其任务是预测个体每年的收入是否超过 50k.该数据集可以研究性别或种族对
收入的影响.
• German Credit 数据集:German Credit 数据集包含 1 000 条记录,每条记录有个人身份、性别、信用评
分、信用金额、住房状况等属性.该数据集可以研究性别对信用的影响.
• COMPAS 数据集:COMPAS 数据集包含来自美国佛罗里达州布劳沃德县的被告记录,显示了 2013 年至
2014 年间,监狱、服刑时间、人口统计数据、犯罪历史和 COMPAS 风险评分.该数据集可以研究种族
和性别对累犯预判的影响.
• Communities&Crime 数据集:Communities and Crime 数据集来自美国社区和犯罪记录数据集,这些数
据结合了 1990 年美国人口普查的社会经济数据、1990 年美国 LEMAS 调查的执法数据和 1995 年联
邦调查局 UCR 的犯罪记录数据.
• LSAC National Bar Passage 数据集:Law School Admissions Council(LSAC) [85] 跟踪调查了 1991 年到