We study a natural combinatorial single-principal multi-agent contract design problem, in which a principal motivates a team of agents to exert effort toward a given task. At the heart of our model is a reward function, which maps the agent efforts to an expected reward of the principal. We seek to design computationally efficient algorithms for finding optimal (or near-optimal) linear contracts for reward functions that belong to the complement-free hierarchy. Our first main result gives constant-factor approximation algorithms for submodular and XOS reward functions, with value oracles for submodular reward functions and value and demand oracles for XOS reward functions. It relies on an unconventional use of ``prices'' and (approximate) demand queries for selecting the set of agents that the principal should contract with, and exploits a novel scaling property of XOS functions and their marginals, which may be of independent interest. As our second main result, we show that constant approximation is the best we can get for submodular reward functions, even with both value and demand oracles. For the larger class of subadditive reward functions, we establish an $Ω(\sqrt{n})$ impossibility for settings with $n$ agents. A striking feature of this impossibility is that it applies to subadditive functions that are constant-factor close to submodular. This rapid degradation presents a surprising departure from previous literature, e.g., on combinatorial auctions, where approximation guarantees tend to deteriorate more


翻译:我们研究一个自然的组合式单委托人多智能体合约设计问题,其中委托人激励一组智能体为给定任务付出努力。我们模型的核心是奖励函数,该函数将智能体的努力映射为委托人的期望收益。针对属于无补层次结构的奖励函数,我们致力于设计计算高效的算法以寻找最优(或近似最优)线性合约。我们的第一个主要结果为子模函数和XOS奖励函数提供了常数因子近似算法,其中子模奖励函数使用值预言机,XOS奖励函数使用值和需求预言机。该结果依赖于非常规地使用"价格"和(近似)需求查询来选择委托人应签约的智能体集合,并利用了XOS函数及其边际的新颖缩放特性,这一特性可能具有独立的研究价值。作为第二个主要结果,我们证明即使同时拥有值和需求预言机,常数近似已是子模奖励函数所能达到的最佳界限。对于更广泛的次可加奖励函数类,我们在包含$n$个智能体的设定中建立了$Ω(\sqrt{n})$的不可近似性。这一不可能性的显著特征在于,它适用于与子模函数仅相差常数因子的次可加函数。这种急剧的性能退化呈现出与先前文献(如组合拍卖研究)的显著差异,后者的近似保证往往以更渐进的方式恶化。

0
下载
关闭预览

相关内容

《多智能体大语言模型系统的可靠决策研究》
专知会员服务
38+阅读 · 2月2日
智能体工程(Agent Engineering)
专知会员服务
33+阅读 · 2025年12月31日
中文版 | 集中式与分布式多智能体AI协调策略
专知会员服务
19+阅读 · 2025年5月8日
《多智能体强化学习中机制设计的优化》103页
专知会员服务
30+阅读 · 2025年5月3日
面向关系建模的合作多智能体深度强化学习综述
专知会员服务
39+阅读 · 2025年4月18日
《多智能体强化学习策略优化算法设计》226页
专知会员服务
64+阅读 · 2024年6月9日
多智能体学习中合作的综述
专知会员服务
75+阅读 · 2023年12月12日
多智能体协同决策方法研究
专知会员服务
134+阅读 · 2022年12月15日
面向多智能体博弈对抗的对手建模框架
专知
18+阅读 · 2022年9月28日
智能合约的形式化验证方法研究综述
专知
16+阅读 · 2021年5月8日
【综述】多智能体强化学习算法理论研究
深度强化学习实验室
15+阅读 · 2020年9月9日
【DeepMind】多智能体学习231页PPT总结
深度强化学习实验室
16+阅读 · 2020年6月23日
经典书《斯坦福大学-多智能体系统》532页pdf
DeepMind:用PopArt进行多任务深度强化学习
论智
29+阅读 · 2018年9月14日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
国家自然科学基金
49+阅读 · 2009年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Arxiv
0+阅读 · 3月8日
Arxiv
0+阅读 · 2月12日
Arxiv
0+阅读 · 2月3日
Arxiv
0+阅读 · 1月30日
VIP会员
最新内容
澳大利亚发布《国防战略(2026年)》
专知会员服务
0+阅读 · 25分钟前
【CMU博士论文】迈向基于基础先验的 4D 感知研究
专知会员服务
0+阅读 · 21分钟前
全球高超音速武器最新发展趋势
专知会员服务
0+阅读 · 50分钟前
人工智能在战场行动中的演进及伊朗案例
专知会员服务
7+阅读 · 4月18日
美AI公司Anthropic推出网络安全模型“Mythos”
专知会员服务
4+阅读 · 4月18日
【博士论文】面向城市环境的可解释计算机视觉
相关VIP内容
《多智能体大语言模型系统的可靠决策研究》
专知会员服务
38+阅读 · 2月2日
智能体工程(Agent Engineering)
专知会员服务
33+阅读 · 2025年12月31日
中文版 | 集中式与分布式多智能体AI协调策略
专知会员服务
19+阅读 · 2025年5月8日
《多智能体强化学习中机制设计的优化》103页
专知会员服务
30+阅读 · 2025年5月3日
面向关系建模的合作多智能体深度强化学习综述
专知会员服务
39+阅读 · 2025年4月18日
《多智能体强化学习策略优化算法设计》226页
专知会员服务
64+阅读 · 2024年6月9日
多智能体学习中合作的综述
专知会员服务
75+阅读 · 2023年12月12日
多智能体协同决策方法研究
专知会员服务
134+阅读 · 2022年12月15日
相关基金
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
国家自然科学基金
49+阅读 · 2009年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员