Multi-agent reinforcement learning in dynamic social dilemmas commonly relies on parameter sharing to enable scalability. We show that in shared-policy Deep Q-Network learning, standard exploration can induce a robust and systematic collapse of cooperation even in environments where fully cooperative equilibria are stable and payoff dominant. Through controlled experiments, we demonstrate that shared DQN converges to stable but persistently low-cooperation regimes. This collapse is not caused by reward misalignment, noise, or insufficient training, but by a representational failure arising from partial observability combined with parameter coupling across heterogeneous agent states. Exploration-driven updates bias the shared representation toward locally dominant defection responses, which then propagate across agents and suppress cooperative learning. We confirm that the failure persists across network sizes, exploration schedules, and payoff structures, and disappears when parameter sharing is removed or when agents maintain independent representations. These results identify a fundamental failure mode of shared-policy MARL and establish structural conditions under which scalable learning architectures can systematically undermine cooperation. Our findings provide concrete guidance for the design of multi-agent learning systems in social and economic environments where collective behavior is critical.


翻译:在动态社会困境中的多智能体强化学习通常依赖参数共享来实现可扩展性。我们发现,在共享策略的深度Q网络学习中,标准探索会引发合作稳健且系统性的崩溃,即使在完全合作均衡稳定且收益占优的环境中也是如此。通过受控实验,我们证明共享DQN会收敛到稳定但持续低合作的机制。这种崩溃并非由奖励错位、噪声或训练不足引起,而是源于部分可观测性与异构智能体状态间参数耦合共同导致的表征失效。探索驱动的更新使共享表征偏向局部占优的背叛响应,随后这种偏差在智能体间传播并抑制合作学习。我们证实该失效现象在不同网络规模、探索调度和收益结构中持续存在,而当移除参数共享或智能体保持独立表征时该现象消失。这些结果揭示了共享策略多智能体强化学习的一个基本失效模式,并确立了可扩展学习架构可能系统性地破坏合作的结构性条件。我们的研究为在社会和经济环境中设计多智能体学习系统提供了具体指导,此类环境中集体行为至关重要。

0
下载
关闭预览

相关内容

《分布式多智能体强化学习策略的可解释性研究》
专知会员服务
28+阅读 · 2025年11月17日
《基于分层多智能体强化学习的逼真空战协同策略》
专知会员服务
43+阅读 · 2025年10月30日
面向关系建模的合作多智能体深度强化学习综述
专知会员服务
39+阅读 · 2025年4月18日
《多智能体合作强化学习中的通信》139页
专知会员服务
45+阅读 · 2025年2月17日
开放环境下的协作多智能体强化学习进展综述
专知会员服务
34+阅读 · 2025年1月19日
多智能体学习中合作的综述
专知会员服务
75+阅读 · 2023年12月12日
基于多智能体强化学习的协同目标分配
专知会员服务
139+阅读 · 2023年9月5日
多智能体协同决策方法研究
专知会员服务
134+阅读 · 2022年12月15日
「基于通信的多智能体强化学习」 进展综述
【综述】多智能体强化学习算法理论研究
深度强化学习实验室
15+阅读 · 2020年9月9日
探索(Exploration)还是利用(Exploitation)?强化学习如何tradeoff?
深度强化学习实验室
13+阅读 · 2020年8月23日
强化学习的两大话题之一,仍有极大探索空间
AI科技评论
22+阅读 · 2020年8月22日
多智能体强化学习(MARL)近年研究概览
PaperWeekly
38+阅读 · 2020年3月15日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
国家自然科学基金
49+阅读 · 2009年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
VIP会员
最新内容
无人机与反无人机系统(书籍)
专知会员服务
1+阅读 · 今天6:45
乌克兰2026年军用无人机:现代战争如何被改变
专知会员服务
1+阅读 · 今天5:53
美陆军2026条令:安全与机动支援
专知会员服务
0+阅读 · 今天5:49
技术、多域威慑与海上战争(报告)
专知会员服务
7+阅读 · 4月13日
“在云端防御”:提升北约数据韧性(报告)
专知会员服务
4+阅读 · 4月13日
人工智能及其在海军行动中的整合(综述)
专知会员服务
4+阅读 · 4月13日
相关VIP内容
《分布式多智能体强化学习策略的可解释性研究》
专知会员服务
28+阅读 · 2025年11月17日
《基于分层多智能体强化学习的逼真空战协同策略》
专知会员服务
43+阅读 · 2025年10月30日
面向关系建模的合作多智能体深度强化学习综述
专知会员服务
39+阅读 · 2025年4月18日
《多智能体合作强化学习中的通信》139页
专知会员服务
45+阅读 · 2025年2月17日
开放环境下的协作多智能体强化学习进展综述
专知会员服务
34+阅读 · 2025年1月19日
多智能体学习中合作的综述
专知会员服务
75+阅读 · 2023年12月12日
基于多智能体强化学习的协同目标分配
专知会员服务
139+阅读 · 2023年9月5日
多智能体协同决策方法研究
专知会员服务
134+阅读 · 2022年12月15日
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
国家自然科学基金
49+阅读 · 2009年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员