Motivated by the fact that the worth of a coalition may depend on the order in which agents arrive, Nowak and Radzik (1994) (NR) introduced cooperative games with generalized characteristic functions. We study such temporal cooperative games (TCGs), where the worth function v is defined on sequences of agents π rather than sets S. This order sensitivity necessitates a re-examination of axioms for reward sharing. NR and subsequent work proposed several axioms; the resulting solution concepts are still inherently order-oblivious and closely tied to the Shapley value. In contrast, we focus on sequential solution concepts that explicitly depend on the realized order π. We study reward-sharing mechanisms satisfying incentive for optimal arrival (I4OA), which promotes orders maximizing total worth; online individual rationality (OIR), which ensures agents are not harmed by later arrivals; and sequential efficiency (SE), which requires that the worth of any sequence is fully distributed among its agents. These axioms are intrinsic to TCGs, and we characterize a class of reward-sharing mechanisms uniquely determined by them. The classical Shapley value does not directly extend to this setting. We therefore construct natural Shapley analogs in two worlds: a sequential world, where rewards are defined for each sequence agent pair, and an extended world, where rewards are defined per agent, consistent with the NR framework. In both cases, the axioms of efficiency, additivity, and null player uniquely characterize the corresponding Shapley analogs. But, these Shapley analogs are disjoint from the class of solutions satisfying the sequential axioms, even for convex and simple TCGs.


翻译:鉴于联盟的价值可能取决于智能体到达的顺序,Nowak 和 Radzik (1994) (NR) 引入了具有广义特征函数的合作博弈。我们研究这类时序合作博弈,其中价值函数 v 定义在智能体序列 π 上,而非集合 S 上。这种顺序敏感性要求重新审视奖励分配的公理。NR 及后续研究提出了若干公理;由此产生的解概念本质上仍是忽略顺序的,并与 Shapley 值紧密相关。相比之下,我们关注明确依赖于实现顺序 π 的序贯解概念。我们研究满足最优到达激励的奖励分配机制,该公理旨在促进最大化总价值的顺序;在线个体理性,确保智能体不会因后续到达者而受损;以及序贯效率,要求任何序列的价值在其智能体之间完全分配。这些公理是 TCG 所固有的,我们刻画了由它们唯一确定的一类奖励分配机制。经典的 Shapley 值不能直接推广到此设定。因此,我们在两个世界中构建了自然的 Shapley 类比:一个序贯世界,其中奖励为每个序列-智能体对定义;以及一个扩展世界,其中奖励为每个智能体定义,与 NR 框架保持一致。在两种情况下,效率性、可加性和零玩家公理唯一刻画了相应的 Shapley 类比。但是,即使对于凸和简单的 TCG,这些 Shapley 类比也不同于满足序贯公理的解类。

0
下载
关闭预览

相关内容

混合博弈问题的求解与应用综述
专知会员服务
41+阅读 · 2024年8月9日
博弈论应用《互补战场上的多场战斗对抗》
专知会员服务
26+阅读 · 2024年1月30日
计算机博弈中序贯不完美信息博弈求解研究进展
专知会员服务
56+阅读 · 2023年11月28日
【2023新书】合作博弈论的计算方面,170页pdf
专知会员服务
72+阅读 · 2023年6月29日
【干货书】算法博弈论,Algorithmic Game Theory,775页pdf
专知会员服务
89+阅读 · 2023年6月19日
《资源分配博弈中的收敛率》
专知会员服务
41+阅读 · 2023年3月10日
【经典书】算法博弈论,775页pdf,Algorithmic Game Theory
专知会员服务
156+阅读 · 2021年5月9日
强化学习《奖励函数设计: Reward Shaping》详细解读
深度强化学习实验室
19+阅读 · 2020年9月1日
不对称多代理博弈中的博弈理论解读
AI前线
14+阅读 · 2018年3月8日
【论文】深度学习的数学解释
机器学习研究会
10+阅读 · 2017年12月15日
特征工程的特征理解(一)
机器学习研究会
10+阅读 · 2017年10月23日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Arxiv
0+阅读 · 3月2日
Arxiv
0+阅读 · 2月16日
VIP会员
最新内容
《图世界模型:概念、分类体系与未来方向》
专知会员服务
8+阅读 · 5月1日
Palantir AIP平台:连接智能体与决策
专知会员服务
15+阅读 · 5月1日
《美海军软件测试战略》90页slides
专知会员服务
11+阅读 · 5月1日
面向具身智能与机器人仿真的三维生成:综述
专知会员服务
11+阅读 · 4月30日
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员