Transformer-based tabular foundation models have recently demonstrated promising in-context learning (ICL) performance on structured data, emerging as competitive alternatives to gradient-boosted trees. However, the fairness implications of this new paradigm remain largely unexplored. We present the first investigation of fairness in tabular ICL, evaluating three recently proposed foundation models--TabPFNv2, TabICL, and TabDPT--on multiple benchmark datasets. To mitigate biases, we explore three pre-processing fairness-enhancing methods: correlation removal (decorrelating input features from the sensitive attribute), group-balanced sample selection (ensuring equal representation of protected groups in context examples), and uncertainty-based sample selection (prioritizing context examples with high sensitive-attribute prediction uncertainty). Our experiments show that the uncertainty-based strategy consistently improves group fairness metrics (e.g., demographic parity, equalized odds, and equal opportunity) with minimal impact on predictive accuracy. We release our code to facilitate reproducibility https://github.com/patrikken/Fair-TabICL.


翻译:基于Transformer的表格基础模型最近在结构化数据上展现出有前景的上下文学习性能,成为梯度提升树的有力竞争替代方案。然而,这一新范式的公平性影响在很大程度上仍未得到探索。我们首次对表格上下文学习的公平性进行了研究,在多个基准数据集上评估了三种近期提出的基础模型——TabPFNv2、TabICL和TabDPT。为了缓解偏差,我们探索了三种用于增强公平性的预处理方法:相关性移除(使输入特征与敏感属性解相关)、组平衡样本选择(确保上下文示例中受保护群体具有同等代表性)以及基于不确定性的样本选择(优先选择敏感属性预测不确定性高的上下文示例)。我们的实验表明,基于不确定性的策略能持续改进群体公平性指标(例如,人口统计均等、机会均等和机会平等),同时对预测准确性的影响最小。我们已公开代码以促进可复现性:https://github.com/patrikken/Fair-TabICL。

0
下载
关闭预览

相关内容

【博士论文】基于多模态基础模型的上下文学习
专知会员服务
22+阅读 · 2025年12月17日
《深度表格学习综述》
专知会员服务
43+阅读 · 2024年10月18日
表格数据的语言建模:基础、技术与演变综述
专知会员服务
39+阅读 · 2024年8月23日
【阿姆斯特丹博士论文】表格表示学习,179页pdf
专知会员服务
36+阅读 · 2024年4月6日
基于表格数据的深度学习方法
专知会员服务
40+阅读 · 2021年10月19日
深度多模态表示学习综述论文,22页pdf
专知
33+阅读 · 2020年6月21日
长文本表示学习概述
云栖社区
15+阅读 · 2019年5月9日
BERT相关论文、文章和代码资源汇总
AINLP
19+阅读 · 2018年11月17日
【论文】图上的表示学习综述
机器学习研究会
15+阅读 · 2017年9月24日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
13+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2025年12月31日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
13+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员