Opponent modeling methods typically involve two crucial steps: building a belief distribution over opponents' strategies, and exploiting this opponent model by playing a best response. However, existing approaches typically require domain-specific heurstics to come up with such a model, and algorithms for approximating best responses are hard to scale in large, imperfect information domains. In this work, we introduce a scalable and generic multiagent training regime for opponent modeling using deep game-theoretic reinforcement learning. We first propose Generative Best Respoonse (GenBR), a best response algorithm based on Monte-Carlo Tree Search (MCTS) with a learned deep generative model that samples world states during planning. This new method scales to large imperfect information domains and can be plug and play in a variety of multiagent algorithms. We use this new method under the framework of Policy Space Response Oracles (PSRO), to automate the generation of an \emph{offline opponent model} via iterative game-theoretic reasoning and population-based training. We propose using solution concepts based on bargaining theory to build up an opponent mixture, which we find identifying profiles that are near the Pareto frontier. Then GenBR keeps updating an \emph{online opponent model} and reacts against it during gameplay. We conduct behavioral studies where human participants negotiate with our agents in Deal-or-No-Deal, a class of bilateral bargaining games. Search with generative modeling finds stronger policies during both training time and test time, enables online Bayesian co-player prediction, and can produce agents that achieve comparable social welfare and Nash bargaining score negotiating with humans as humans trading among themselves.


翻译:对手建模方法通常包含两个关键步骤:构建对手策略的信念分布,以及通过执行最优响应来利用该对手模型。然而,现有方法通常需要依赖领域特定的启发式规则来构建此类模型,且近似最优响应的算法在大型非完美信息领域中难以扩展。本研究提出一种基于深度博弈论强化学习的可扩展通用多智能体训练框架,用于对手建模。我们首先提出生成式最优响应算法,这是一种基于蒙特卡洛树搜索的最优响应算法,其通过训练得到的深度生成模型在规划过程中对世界状态进行采样。这一新方法能够扩展至大型非完美信息领域,并可即插即用地应用于多种多智能体算法。我们将此新方法应用于策略空间响应预言机框架下,通过迭代式博弈论推理与基于种群的训练,实现离线对手模型的自动化生成。我们提出采用基于议价理论的解概念来构建对手混合策略,该方法能够识别接近帕累托边界的策略剖面。随后,生成式最优响应算法持续更新在线对手模型并在博弈过程中对其进行实时响应。我们在"成交与否"双边议价博弈中进行了行为实验,让人类参与者与我们的智能体进行谈判。实验表明:采用生成模型的搜索方法在训练与测试阶段均能发现更强策略,能够实现在线贝叶斯协同玩家预测,并且所构建的智能体在与人类谈判时,可获得与人类间相互交易相当的社会福利水平与纳什议价得分。

1
下载
关闭预览

相关内容

【新书】深度学习中的博弈论应用
专知会员服务
84+阅读 · 2024年3月27日
基于深度强化学习的对手建模方法研究综述
专知会员服务
84+阅读 · 2023年4月17日
面向多智能体博弈对抗的对手建模框架
专知会员服务
165+阅读 · 2022年9月28日
智能博弈对抗方法:博弈论与强化学习综合视角对比分析
专知会员服务
198+阅读 · 2022年8月28日
面向多智能体博弈对抗的对手建模框架
专知
18+阅读 · 2022年9月28日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
24+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2013年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
Arxiv
0+阅读 · 3月4日
Arxiv
0+阅读 · 2月12日
Arxiv
0+阅读 · 2月3日
VIP会员
最新内容
《图世界模型:概念、分类体系与未来方向》
专知会员服务
7+阅读 · 5月1日
Palantir AIP平台:连接智能体与决策
专知会员服务
12+阅读 · 5月1日
《美海军软件测试战略》90页slides
专知会员服务
9+阅读 · 5月1日
面向具身智能与机器人仿真的三维生成:综述
专知会员服务
10+阅读 · 4月30日
相关基金
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
24+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2013年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员