Despite their promise, fair machine learning methods often yield Pareto-inefficient models, in which the performance of certain groups can be improved without degrading that of others. This issue arises frequently in traditional in-processing approaches such as fairness-through-regularization. In contrast, existing Pareto-efficient approaches are biased towards a certain perspective on fairness and fail to adapt to the broad range of fairness metrics studied in the literature. In this paper, we present BADR, a simple framework to recover the optimal Pareto-efficient model for any fairness metric. Our framework recovers its models through a Bilevel Adaptive Rescalarisation procedure. The lower level is a weighted empirical risk minimization task where the weights are a convex combination of the groups, while the upper level optimizes the chosen fairness objective. We equip our framework with two novel large-scale, single-loop algorithms, BADR-GD and BADR-SGD, and establish their convergence guarantees. We release badr, an open-source Python toolbox implementing our framework for a variety of learning tasks and fairness metrics. Finally, we conduct extensive numerical experiments demonstrating the advantages of BADR over existing Pareto-efficient approaches to fairness.


翻译:尽管前景广阔,公平机器学习方法常常产生帕累托低效模型,其中某些群体的性能可以在不损害其他群体性能的情况下得到提升。这一问题在传统的处理中方法(如通过正则化实现公平性)中频繁出现。相比之下,现有的帕累托高效方法偏向于特定的公平性视角,无法适应文献中研究的广泛公平性指标。本文提出BADR——一个为任意公平性指标恢复最优帕累托高效模型的简洁框架。我们的框架通过双层自适应重标量化程序恢复模型:下层是加权经验风险最小化任务(权重为各群体的凸组合),上层则优化选定的公平性目标。我们为该框架配备了两个新颖的大规模单循环算法BADR-GD和BADR-SGD,并建立了其收敛性保证。我们发布了badr——一个开源的Python工具箱,为多种学习任务和公平性指标实现了我们的框架。最后,我们通过大量数值实验证明了BADR相较于现有帕累托高效公平性方法的优势。

0
下载
关闭预览

相关内容

专知会员服务
24+阅读 · 2021年8月27日
机器学习的可解释性:因果推理和稳定学习
DataFunTalk
13+阅读 · 2020年3月3日
以BERT为例,如何优化机器学习模型性能?
专知
10+阅读 · 2019年10月3日
用深度学习揭示数据的因果关系
专知
28+阅读 · 2019年5月18日
推荐|机器学习中的模型评价、模型选择和算法选择!
全球人工智能
10+阅读 · 2018年2月5日
GAFT:一个使用 Python 实现的遗传算法框架
Python开发者
10+阅读 · 2017年8月1日
从浅层模型到深度模型:概览机器学习优化算法
机器之心
27+阅读 · 2017年7月9日
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
相关VIP内容
专知会员服务
24+阅读 · 2021年8月27日
相关基金
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员