Cooperative multi-agent reinforcement learning (MARL) commonly adopts centralized training with decentralized execution, where value-factorization methods enforce the individual-global-maximum (IGM) principle so that decentralized greedy actions recover the team-optimal joint action. However, the reliability of this recipe in real-world settings remains unreliable due to environmental uncertainties arising from the sim-to-real gap, model mismatch, and system noise. We address this gap by introducing Distributionally robust IGM (DrIGM), a principle that requires each agent's robust greedy action to align with the robust team-optimal joint action. We show that DrIGM holds for a novel definition of robust individual action values, which is compatible with decentralized greedy execution and yields a provable robustness guarantee for the whole system. Building on this foundation, we derive DrIGM-compliant robust variants of existing value-factorization architectures (e.g., VDN/QMIX/QTRAN) that (i) train on robust Q-targets, (ii) preserve scalability, and (iii) integrate seamlessly with existing codebases without bespoke per-agent reward shaping. Empirically, on high-fidelity SustainGym simulators and a StarCraft game environment, our methods consistently improve out-of-distribution performance. Code and data are available at https://github.com/crqu/robust-coMARL.


翻译:协同多智能体强化学习通常采用集中训练与分散执行的范式,其中价值分解方法通过满足个体-全局最大值原则,使得分散的贪婪动作能够恢复团队最优联合动作。然而,由于仿真到现实的差异、模型失配以及系统噪声等环境不确定性,该方案在实际场景中的可靠性仍显不足。为填补这一空白,本文提出分布鲁棒IGM原则,要求每个智能体的鲁棒贪婪动作与鲁棒团队最优联合动作保持一致。我们证明,该原则适用于一种新颖的鲁棒个体动作价值定义,该定义不仅与分散贪婪执行机制兼容,还能为整个系统提供可证明的鲁棒性保证。基于此理论框架,我们推导出符合DrIGM原则的现有价值分解架构的鲁棒变体,这些变体具有以下特征:训练时采用鲁棒Q目标值;保持算法可扩展性;无需定制化的单智能体奖励重塑即可与现有代码库无缝集成。在SustainGym高保真仿真器与星际争霸游戏环境中的实验表明,我们的方法能持续提升分布外泛化性能。代码与数据公开于https://github.com/crqu/robust-coMARL。

0
下载
关闭预览

相关内容

《基于分层多智能体强化学习的逼真空战协同策略》
专知会员服务
44+阅读 · 2025年10月30日
中文版 | 集中式与分布式多智能体AI协调策略
专知会员服务
20+阅读 · 2025年5月8日
面向关系建模的合作多智能体深度强化学习综述
专知会员服务
40+阅读 · 2025年4月18日
多智能体博弈中的分布式学习: 原理与算法
专知会员服务
54+阅读 · 2024年6月13日
基于学习机制的多智能体强化学习综述
专知会员服务
63+阅读 · 2024年4月16日
基于多智能体强化学习的协同目标分配
专知会员服务
139+阅读 · 2023年9月5日
基于多智能体深度强化学习的体系任务分配方法
专知会员服务
157+阅读 · 2023年5月4日
多智能体协同决策方法研究
专知会员服务
134+阅读 · 2022年12月15日
「基于通信的多智能体强化学习」 进展综述
【综述】多智能体强化学习算法理论研究
深度强化学习实验室
16+阅读 · 2020年9月9日
多智能体强化学习(MARL)近年研究概览
PaperWeekly
38+阅读 · 2020年3月15日
基于数据的分布式鲁棒优化算法及其应用【附PPT与视频资料】
人工智能前沿讲习班
27+阅读 · 2018年12月13日
【强化学习】强化学习+深度学习=人工智能
产业智能官
55+阅读 · 2017年8月11日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
19+阅读 · 2012年12月31日
国家自然科学基金
49+阅读 · 2009年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
VIP会员
最新内容
探秘Palantir:驱动美情报的科技巨头
专知会员服务
1+阅读 · 今天3:14
《美国海军军事海运司令部 2026年手册》
专知会员服务
1+阅读 · 今天3:05
《人工智能使能系统可靠性框架》
专知会员服务
3+阅读 · 今天2:28
2026“人工智能+”行业发展蓝皮书(附下载)
专知会员服务
10+阅读 · 4月26日
《强化学习数学基础》
专知会员服务
7+阅读 · 4月26日
“Maven计划”的发展演变之“Maven智能系统”应用
相关VIP内容
《基于分层多智能体强化学习的逼真空战协同策略》
专知会员服务
44+阅读 · 2025年10月30日
中文版 | 集中式与分布式多智能体AI协调策略
专知会员服务
20+阅读 · 2025年5月8日
面向关系建模的合作多智能体深度强化学习综述
专知会员服务
40+阅读 · 2025年4月18日
多智能体博弈中的分布式学习: 原理与算法
专知会员服务
54+阅读 · 2024年6月13日
基于学习机制的多智能体强化学习综述
专知会员服务
63+阅读 · 2024年4月16日
基于多智能体强化学习的协同目标分配
专知会员服务
139+阅读 · 2023年9月5日
基于多智能体深度强化学习的体系任务分配方法
专知会员服务
157+阅读 · 2023年5月4日
多智能体协同决策方法研究
专知会员服务
134+阅读 · 2022年12月15日
相关基金
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
19+阅读 · 2012年12月31日
国家自然科学基金
49+阅读 · 2009年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员