Bias can be introduced in diverse ways in machine learning datasets, for example via selection or label bias. Although these bias types in themselves have an influence on important aspects of fair machine learning, their different impact has been understudied. In this work, we empirically analyze the effect of label bias and several subtypes of selection bias on the evaluation of classification models, on their performance, and on the effectiveness of bias mitigation methods. We also introduce a biasing and evaluation framework that allows to model fair worlds and their biased counterparts through the introduction of controlled bias in real-life datasets with low discrimination. Using our framework, we empirically analyze the impact of each bias type independently, while obtaining a more representative evaluation of models and mitigation methods than with the traditional use of a subset of biased data as test set. Our results highlight different factors that influence how impactful bias is on model performance. They also show an absence of trade-off between fairness and accuracy, and between individual and group fairness, when models are evaluated on a test set that does not exhibit unwanted bias. They furthermore indicate that the performance of bias mitigation methods is influenced by the type of bias present in the data. Our findings call for future work to develop more accurate evaluations of prediction models and fairness interventions, but also to better understand other types of bias, more complex scenarios involving the combination of different bias types, and other factors that impact the efficiency of the mitigation methods, such as dataset characteristics.


翻译:在机器学习数据集中,偏差可能以多种方式引入,例如通过选择偏差或标签偏差。尽管这些偏差类型本身对机器学习公平性的重要方面具有影响,但它们的差异影响尚未得到充分研究。在本工作中,我们通过实证分析标签偏差及多种选择偏差子类型对分类模型评估、模型性能以及偏差缓解方法有效性的影响。我们还引入了一个偏差构建与评估框架,该框架能够通过在低歧视度的现实数据集中引入受控偏差,来模拟公平世界及其对应的偏差版本。利用该框架,我们独立地实证分析了每种偏差类型的影响,同时获得了比传统使用偏差数据子集作为测试集更具代表性的模型与缓解方法评估结果。我们的研究结果揭示了影响偏差对模型性能作用程度的不同因素。结果表明,当在未呈现非期望偏差的测试集上评估模型时,公平性与准确性之间以及个体公平性与群体公平性之间不存在权衡关系。研究进一步表明,偏差缓解方法的性能受到数据中存在的偏差类型的影响。我们的发现呼吁未来研究致力于开发更精准的预测模型与公平性干预措施评估方法,同时更深入地理解其他偏差类型、涉及多种偏差类型组合的复杂场景,以及影响缓解方法效率的其他因素(如数据集特征)。

0
下载
关闭预览

相关内容

不平衡数据学习的全面综述
专知会员服务
44+阅读 · 2025年2月15日
【MIT博士论文】序列决策中的算法公平性,134页pdf
专知会员服务
25+阅读 · 2023年5月20日
【NeurIPS2019报告推荐】公平与表示学习—UIUC Sanmi Koyejo教授
一文读懂机器学习模型的选择与取舍
DBAplus社群
13+阅读 · 2019年8月25日
「PPT」深度学习中的不确定性估计
专知
27+阅读 · 2019年7月20日
标签间相关性在多标签分类问题中的应用
人工智能前沿讲习班
23+阅读 · 2019年6月5日
一文教你如何处理不平衡数据集(附代码)
大数据文摘
12+阅读 · 2019年6月2日
统计学常用数据类型
论智
19+阅读 · 2018年7月6日
【干货】监督学习与无监督学习简介
专知
14+阅读 · 2018年4月4日
推荐|机器学习中的模型评价、模型选择和算法选择!
全球人工智能
10+阅读 · 2018年2月5日
FCS 论坛 | 孟德宇:误差建模原理
FCS
15+阅读 · 2017年8月17日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
VIP会员
最新内容
【CMU博士论文】迈向可扩展的开放世界三维感知
专知会员服务
0+阅读 · 11分钟前
前馈式三维场景建模
专知会员服务
0+阅读 · 14分钟前
(译文)认知战:以士兵为目标,塑造战略
专知会员服务
2+阅读 · 今天3:12
(中文)认知战的本体论基础(2026报告)
专知会员服务
18+阅读 · 今天1:45
美空军条令(2026):外国对内防御
专知会员服务
3+阅读 · 今天1:32
美国与以色列如何在攻击伊朗中使用人工智能
专知会员服务
7+阅读 · 4月16日
《自动化战略情报管控》
专知会员服务
3+阅读 · 4月16日
得失评估:审视对伊朗战争的轨迹(简报)
专知会员服务
3+阅读 · 4月16日
【CMU博士论文】迈向可解释机器学习的理论基础
相关VIP内容
相关资讯
一文读懂机器学习模型的选择与取舍
DBAplus社群
13+阅读 · 2019年8月25日
「PPT」深度学习中的不确定性估计
专知
27+阅读 · 2019年7月20日
标签间相关性在多标签分类问题中的应用
人工智能前沿讲习班
23+阅读 · 2019年6月5日
一文教你如何处理不平衡数据集(附代码)
大数据文摘
12+阅读 · 2019年6月2日
统计学常用数据类型
论智
19+阅读 · 2018年7月6日
【干货】监督学习与无监督学习简介
专知
14+阅读 · 2018年4月4日
推荐|机器学习中的模型评价、模型选择和算法选择!
全球人工智能
10+阅读 · 2018年2月5日
FCS 论坛 | 孟德宇:误差建模原理
FCS
15+阅读 · 2017年8月17日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员