In day labor markets, workers are particularly vulnerable to wage theft. This paper introduces a principal-agent model to analyze the conditions required to mitigate wage theft through fines and establishes the necessary and sufficient conditions to reduce theft. We find that the fines necessary to eliminate theft are significantly larger than those imposed by current labor laws, making wage theft likely to persist under penalty-based methods alone. Through numerical analysis, we show how wage theft disproportionately affects workers with lower reservation utilities and observe that workers with similar reservation utilities experience comparable impacts, regardless of their skill levels. To address the limitations of penalty-based approaches, we extend the model to a dynamic game incorporating worker awareness. We prove that wage theft can be fully eliminated if workers accurately predict theft using historical data and employers follow optimal fixed wage strategy. Additionally, sharing wage theft information becomes an effective long-term solution when employers use any given fixed wage strategies, emphasizing the importance of raising worker awareness through various channels.


翻译:在日结劳动力市场中,劳动者尤其容易遭受工资盗窃。本文引入委托代理模型,分析通过罚款机制抑制工资盗窃所需的条件,并建立了减少盗窃行为的必要与充分条件。研究发现,完全消除工资盗窃所需的罚款金额显著高于现行劳动法规定的处罚标准,这意味着仅依靠惩罚性措施很可能无法根治工资盗窃问题。通过数值分析,我们揭示了工资盗窃对保留效用较低的劳动者造成不成比例的影响,并观察到具有相似保留效用的劳动者——无论其技能水平如何——都会受到可比程度的影响。为突破惩罚性措施的局限,我们将模型扩展为包含劳动者认知的动态博弈模型。研究证明,若劳动者能基于历史数据准确预测工资盗窃行为,且雇主采用最优固定工资策略,则工资盗窃可被完全消除。此外,当雇主采用任意给定的固定工资策略时,共享工资盗窃信息将成为有效的长期解决方案,这凸显了通过多元渠道提升劳动者认知的重要性。

0
下载
关闭预览

相关内容

Linux导论,Introduction to Linux,96页ppt
专知会员服务
82+阅读 · 2020年7月26日
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
32+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
164+阅读 · 2019年10月12日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2024年11月24日
Arxiv
0+阅读 · 2024年11月22日
Arxiv
0+阅读 · 2024年11月19日
Arxiv
14+阅读 · 2021年7月20日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
相关基金
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员