The potential for bias and unfairness in AI-supporting government services raises ethical and legal concerns. Using crime rate prediction with the Bristol City Council data as a case study, we examine how these issues persist. Rather than auditing real-world deployed systems, our goal is to understand why widely adopted bias mitigation techniques often fail when applied to government data. Our findings reveal that bias mitigation approaches applied to government data are not always effective -- not because of flaws in model architecture or metric selection, but due to the inherent properties of the data itself. Through comparing a set of comprehensive models and fairness methods, our experiments consistently show that the mitigation efforts cannot overcome the embedded unfairness in the data -- further reinforcing that the origin of bias lies in the structure and history of government datasets. We then explore the reasons for the mitigation failures in predictive models on government data and highlight the potential sources of unfairness posed by data distribution shifts, the accumulation of historical bias, and delays in data release. We also discover the limitations of the blind spots in fairness analysis and bias mitigation methods when only targeting a single sensitive feature through a set of intersectional fairness experiments. Although this study is limited to one city, the findings are highly suggestive, which can contribute to an early warning that biases in government data may persist even with standard mitigation methods.


翻译:人工智能辅助政府服务中潜在的偏见与不公平性引发了伦理与法律层面的担忧。本文以布里斯托市议会数据中的犯罪率预测为案例,深入探讨了这些问题持续存在的原因。与审计实际部署系统不同,本研究旨在揭示广泛采用的偏差缓解技术在应用于政府数据时频繁失效的根源。研究发现,应用于政府数据的偏差缓解方法并非总能奏效——其原因不在于模型架构缺陷或度量标准选择不当,而在于数据本身的内在特性。通过比较一系列综合模型与公平性方法,我们的实验一致表明:缓解措施无法克服数据中嵌入的不公平性——这进一步证实了偏差的根源在于政府数据集的结构与历史沿革。我们继而探究了政府数据预测模型中缓解措施失效的原因,并着重指出了数据分布偏移、历史偏差累积以及数据发布延迟所构成的不公平性潜在来源。通过一系列交叉公平性实验,我们还发现当公平性分析与偏差缓解方法仅针对单一敏感特征时存在的盲区与局限。尽管本研究仅局限于单一城市,但其发现具有重要启示意义,可为“政府数据中的偏差在标准缓解方法下仍可能持续存在”提供早期预警。

0
下载
关闭预览

相关内容

【普林斯顿博士论文】理解数据在模型决策中的作用
专知会员服务
42+阅读 · 2024年4月26日
人工智能模型中公平性追求的综述
专知会员服务
22+阅读 · 2024年3月30日
因果推断在医药图像的应用:数据缺失和数据不匹配
专知会员服务
58+阅读 · 2022年4月2日
专知会员服务
23+阅读 · 2021年2月6日
「因果推理」概述论文,13页pdf
专知
16+阅读 · 2021年3月20日
深度学习模型可解释性的研究进展
专知
26+阅读 · 2020年8月1日
【综述】交通流量预测,附15页论文下载
专知
23+阅读 · 2020年4月23日
您可以相信模型的不确定性吗?
TensorFlow
14+阅读 · 2020年1月31日
用深度学习揭示数据的因果关系
专知
28+阅读 · 2019年5月18日
你的算法可靠吗? 神经网络不确定性度量
专知
40+阅读 · 2019年4月27日
相关性≠因果:概率图模型和do-calculus
论智
31+阅读 · 2018年10月29日
FCS 论坛 | 孟德宇:误差建模原理
FCS
15+阅读 · 2017年8月17日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2月2日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员