Meritocratic systems, from admissions to hiring, aim to impartially reward skill and effort. Yet persistent disparities across race, gender, and class challenge this ideal. Some attribute these gaps to structural inequality; others to individual choice. We develop a game-theoretic model in which candidates from different socioeconomic groups differ in their perceived post-selection value--shaped by social context and, increasingly, by AI-powered tools offering personalized career or salary guidance. Each candidate strategically chooses effort, balancing its cost against expected reward; effort translates into observable merit, and selection is based solely on merit. We characterize the unique Nash equilibrium in the large-agent limit and derive explicit formulas showing how valuation disparities and institutional selectivity jointly determine effort, representation, social welfare, and utility. We further propose a cost-sensitive optimization framework that quantifies how modifying selectivity or perceived value can reduce disparities without compromising institutional goals. Our analysis reveals a perception-driven bias: when perceptions of post-selection value differ across groups, these differences translate into rational differences in effort, propagating disparities backward through otherwise "fair" selection processes. While the model is static, it captures one stage of a broader feedback cycle linking perceptions, incentives, and outcome--bridging rational-choice and structural explanations of inequality by showing how techno-social environments shape individual incentives in meritocratic systems.


翻译:从招生到招聘,精英选拔制度旨在公正地奖励技能与努力。然而,种族、性别和阶级间持续存在的差异挑战着这一理想。有人将这些差距归因于结构性不平等,有人则归因于个人选择。我们建立了一个博弈论模型,其中来自不同社会经济群体的候选人在感知的选拔后价值上存在差异——这种差异由社会背景塑造,并日益受到提供个性化职业或薪资指导的人工智能工具影响。每位候选人策略性地选择努力程度,在努力成本与预期回报之间进行权衡;努力转化为可观察的绩效,而选拔仅基于绩效。我们在大量参与者极限下刻画了唯一的纳什均衡,并推导出显式公式,展示了价值差异与机构选拔标准如何共同决定努力程度、代表性、社会福利及效用。我们进一步提出了一个成本敏感的优化框架,用于量化如何通过调整选拔标准或感知价值来减少差异,同时不损害机构目标。我们的分析揭示了一种感知驱动的偏见:当不同群体对选拔后价值的感知存在差异时,这些差异会转化为努力程度的理性差异,从而通过原本“公平”的选拔过程反向加剧差距。尽管模型是静态的,但它捕捉了连接感知、激励与结果的更广泛反馈循环中的一个阶段——通过展示技术社会环境如何塑造精英制度中的个人激励,弥合了理性选择与结构性不平等解释之间的鸿沟。

0
下载
关闭预览

相关内容

制度是包括为社会生活提供稳定性和意义的强制性、规范性和文化认同性要素所构成的社会活动和资源。
认知优势:人工智能在国家安全决策中的核心作用
专知会员服务
14+阅读 · 2025年8月16日
基于因果推断的推荐系统去偏研究
专知会员服务
21+阅读 · 2024年11月10日
人工智能军事决策支持系统中的算法偏见问题
专知会员服务
33+阅读 · 2024年9月11日
远程监督在关系抽取中的应用
深度学习自然语言处理
12+阅读 · 2020年10月26日
多因素问题分析时,如何确立各因素权重?
人人都是产品经理
75+阅读 · 2020年3月4日
推荐|机器学习中的模型评价、模型选择和算法选择!
全球人工智能
10+阅读 · 2018年2月5日
推荐算法:Match与Rank模型的交织配合
从0到1
15+阅读 · 2017年12月18日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2月27日
Arxiv
0+阅读 · 2月8日
VIP会员
最新内容
最新“指挥控制”领域出版物合集(简介)
专知会员服务
1+阅读 · 今天15:19
面向军事作战需求开发的人工智能(RAIMOND)
专知会员服务
3+阅读 · 今天15:13
软件定义多域战术网络:基础与未来方向(综述)
水下战战术决策中的气象与海洋预报(50页报告)
远程空中优势:新一代超视距导弹的兴起
专知会员服务
1+阅读 · 今天14:45
大语言模型溯因推理的统一分类学与综述
专知会员服务
0+阅读 · 今天12:07
相关VIP内容
认知优势:人工智能在国家安全决策中的核心作用
专知会员服务
14+阅读 · 2025年8月16日
基于因果推断的推荐系统去偏研究
专知会员服务
21+阅读 · 2024年11月10日
人工智能军事决策支持系统中的算法偏见问题
专知会员服务
33+阅读 · 2024年9月11日
相关资讯
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员