Bias in financial language models constitutes a major obstacle to their adoption in real-world applications. Detecting such bias is challenging, as it requires identifying inputs whose predictions change when varying properties unrelated to the decision, such as demographic attributes. Existing approaches typically rely on exhaustive mutation and pairwise prediction analysis over large corpora, which is effective but computationally expensive-particularly for large language models and can become impractical in continuous retraining and releasing processes. Aiming at reducing this cost, we conduct a large-scale study of bias in five financial language models, examining similarities in their bias tendencies across protected attributes and exploring cross-model-guided bias detection to identify bias-revealing inputs earlier. Our study uses approximately 17k real financial news sentences, mutated to construct over 125k original-mutant pairs. Results show that all models exhibit bias under both atomic (0.58\%-6.05\%) and intersectional (0.75\%-5.97\%) settings. Moreover, we observe consistent patterns in bias-revealing inputs across models, enabling substantial reuse and cost reduction in bias detection. For example, up to 73\% of FinMA's biased behaviours can be uncovered using only 20\% of the input pairs when guided by properties derived from DistilRoBERTa outputs.


翻译:金融语言模型中的偏见构成了其在现实世界应用中的主要障碍。检测此类偏见具有挑战性,因为它需要识别那些当改变与决策无关的属性(如人口统计属性)时预测会发生变化的输入。现有方法通常依赖于对大型语料库进行详尽的变异和成对预测分析,这种方法虽然有效但计算成本高昂——特别是对于大型语言模型而言,并且在持续重训练和发布过程中可能变得不切实际。为了降低这一成本,我们对五种金融语言模型中的偏见进行了大规模研究,考察了它们在受保护属性上偏见倾向的相似性,并探索了跨模型引导的偏见检测方法,以更早地识别揭示偏见的输入。我们的研究使用了约1.7万条真实的金融新闻句子,通过变异构建了超过12.5万条原始-变异对。结果显示,所有模型在原子(0.58\%–6.05\%)和交叉(0.75\%–5.97\%)设置下均表现出偏见。此外,我们观察到不同模型在揭示偏见的输入上存在一致的模式,这使得偏见检测能够实现大量复用并降低成本。例如,当使用从DistilRoBERTa输出中推导的属性进行引导时,仅需20\%的输入对即可揭示FinMA高达73\%的偏见行为。

0
下载
关闭预览

相关内容

在社会经济生活,银行、证券或保险业者从市场主体募集资金,并投资给其它市场主体的经济活动。
大型语言模型中隐性与显性偏见的综合研究
专知会员服务
17+阅读 · 2025年11月25日
基于因果推断的推荐系统去偏研究
专知会员服务
21+阅读 · 2024年11月10日
人工智能军事决策支持系统中的算法偏见问题
专知会员服务
33+阅读 · 2024年9月11日
迈向大语言模型偏好学习的统一视角综述
专知会员服务
24+阅读 · 2024年9月7日
大语言模型评估技术研究进展
专知会员服务
48+阅读 · 2024年7月9日
【博士论文】语言模型与人类偏好对齐,148页pdf
专知会员服务
32+阅读 · 2024年4月21日
大型语言模型在预测和异常检测中的应用综述
专知会员服务
70+阅读 · 2024年2月19日
专知会员服务
23+阅读 · 2021年2月6日
异常检测(Anomaly Detection)综述
极市平台
20+阅读 · 2020年10月24日
金融领域自然语言处理研究资源大列表
专知
13+阅读 · 2020年2月27日
深度学习在金融文本情感分类中的应用
AI前线
36+阅读 · 2019年1月12日
推荐|机器学习中的模型评价、模型选择和算法选择!
全球人工智能
10+阅读 · 2018年2月5日
侦测欺诈交易(异常点检测)
GBASE数据工程部数据团队
20+阅读 · 2017年5月10日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
最新内容
大语言模型溯因推理的统一分类学与综述
专知会员服务
0+阅读 · 今天12:07
美/以-伊战争:停火与后续情景与影响分析
专知会员服务
3+阅读 · 4月11日
美国-以色列-伊朗战争:是否会动用地面部队?
美国协同作战飞机项目新型无人机发动机
专知会员服务
2+阅读 · 4月11日
相关VIP内容
大型语言模型中隐性与显性偏见的综合研究
专知会员服务
17+阅读 · 2025年11月25日
基于因果推断的推荐系统去偏研究
专知会员服务
21+阅读 · 2024年11月10日
人工智能军事决策支持系统中的算法偏见问题
专知会员服务
33+阅读 · 2024年9月11日
迈向大语言模型偏好学习的统一视角综述
专知会员服务
24+阅读 · 2024年9月7日
大语言模型评估技术研究进展
专知会员服务
48+阅读 · 2024年7月9日
【博士论文】语言模型与人类偏好对齐,148页pdf
专知会员服务
32+阅读 · 2024年4月21日
大型语言模型在预测和异常检测中的应用综述
专知会员服务
70+阅读 · 2024年2月19日
专知会员服务
23+阅读 · 2021年2月6日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员