机器学习应用在高风险领域(如刑事判决、医学测试、在线广告等)的流行,至关重要的是要确保这些决策支持系统不会传播历史数据中可能存在的现有偏见或歧视。一般来说,在算法公平文献中有两个关于公平的中心概念。第一个是个体公平,它要求公平的算法以相似的方式对待相似的个体。然而,在实践中,通常很难找到或设计一个社会可接受的距离度量来捕获个体之间关于特定任务的相似性。相反,在这篇博客文章中,我们关注的是公平的第二个概念,群体公平,更具体地说是统计上的平等,这本质上要求预测器的结果在不同的子群体中是平等的。

成为VIP会员查看完整内容
38

相关内容

相互尊重的结果
【哈佛大学】机器学习的黑盒解释性,52页ppt
专知会员服务
172+阅读 · 2020年5月27日
专知会员服务
54+阅读 · 2019年12月22日
421页《机器学习数学基础》最新2019版PDF下载
Machine Learning:十大机器学习算法
开源中国
21+阅读 · 2018年3月1日
推荐系统机器学习算法概览
论智
7+阅读 · 2017年12月14日
Arxiv
35+阅读 · 2020年1月2日
Few-shot Learning: A Survey
Arxiv
363+阅读 · 2019年4月10日
Arxiv
11+阅读 · 2018年7月8日
VIP会员
最新内容
《系统簇式多域作战规划范畴论框架》
专知会员服务
2+阅读 · 今天14:54
高效视频扩散模型:进展与挑战
专知会员服务
0+阅读 · 今天13:34
乌克兰前线的五项创新
专知会员服务
6+阅读 · 今天6:14
 军事通信系统与设备的技术演进综述
专知会员服务
4+阅读 · 今天5:59
《北约标准:医疗评估手册》174页
专知会员服务
4+阅读 · 今天5:51
《提升生成模型的安全性与保障》博士论文
专知会员服务
4+阅读 · 今天5:47
美国当前高超音速导弹发展概述
专知会员服务
4+阅读 · 4月19日
无人机蜂群建模与仿真方法
专知会员服务
13+阅读 · 4月19日
微信扫码咨询专知VIP会员