As AI usage becomes more prevalent in social contexts, understanding agent-user interaction is critical to designing systems that improve both individual and group outcomes. We present an online behavioral experiment (N = 243) in which participants play three multi-turn bargaining games in groups of three. Each game, presented in randomized order, grants \textit{access to} a single LLM assistance modality: proactive recommendations from an \textit{Advisor}, reactive feedback from a \textit{Coach}, or autonomous execution by a \textit{Delegate}; all modalities are powered by an underlying LLM that achieves superhuman performance in an all-agent environment. On each turn, participants privately decide whether to act manually or use the AI modality available in that game. Despite preferring the \textit{Advisor} modality, participants achieve the highest mean individual gains with the \textit{Delegate}, demonstrating a preference-performance misalignment. Moreover, delegation generates positive externalities; even non-adopting users in \textit{access-to-delegate} treatment groups benefit by receiving higher-quality offers. Mechanism analysis reveals that the \textit{Delegate} agent acts as a market maker, injecting rational, Pareto-improving proposals that restructure the trading environment. Our research reveals a gap between agent capabilities and realized group welfare. While autonomous agents can exhibit super-human strategic performance, their impact on realized welfare gains can be constrained by interfaces, user perceptions, and adoption barriers. Assistance modalities should be designed as mechanisms with endogenous participation; adoption-compatible interaction rules are a prerequisite to improving human welfare with automated assistance.


翻译:随着人工智能在社会情境中的应用日益普及,理解智能体与用户的交互对于设计既能提升个体又能改善群体结果的系统至关重要。我们开展了一项在线行为实验(N = 243),参与者以三人小组形式进行三轮多回合议价博弈。每轮博弈以随机顺序呈现,仅提供单一大型语言模型辅助模式:来自"顾问"的主动建议、"教练"的反馈响应,或"代表"的自主执行;所有模式均由底层大型语言模型驱动,该模型在全智能体环境中实现了超人类性能。在每回合中,参与者需私下决定是手动操作还是使用该轮博弈中可用的AI模式。尽管参与者更偏好"顾问"模式,但他们在"代表"模式下实现了最高的个体平均收益,这显示出偏好与绩效之间的错位。此外,委托模式产生了正向外部性;即使处于"可访问代表"处理组中的非采用用户,也能通过接收更高质量的报价而获益。机制分析表明,"代表"智能体扮演了做市商的角色,通过注入理性且帕累托改进的提案来重构交易环境。我们的研究揭示了智能体能力与已实现群体福利之间的差距。虽然自主智能体能够展现超人类的战略性能,但其对实际福利增益的影响可能受到交互界面、用户认知和采用障碍的限制。辅助模式应设计为具有内生参与机制的体系;与采用兼容的交互规则是通过自动化辅助提升人类福利的先决条件。

0
下载
关闭预览

相关内容

人工智能杂志AI(Artificial Intelligence)是目前公认的发表该领域最新研究成果的主要国际论坛。该期刊欢迎有关AI广泛方面的论文,这些论文构成了整个领域的进步,也欢迎介绍人工智能应用的论文,但重点应该放在新的和新颖的人工智能方法如何提高应用领域的性能,而不是介绍传统人工智能方法的另一个应用。关于应用的论文应该描述一个原则性的解决方案,强调其新颖性,并对正在开发的人工智能技术进行深入的评估。 官网地址:http://dblp.uni-trier.de/db/journals/ai/
自主智能:多模态人工智能代理重塑技术未来
专知会员服务
23+阅读 · 2025年11月23日
Agent AI:多模态交互的新地平线
专知会员服务
21+阅读 · 2025年5月26日
《在单智能体与多智能体AI系统中融入人类合理性》100页
人工智能专题报告:Operator和Manus打开AI Agent时代
专知会员服务
61+阅读 · 2025年3月12日
面向多智能体博弈对抗的对手建模框架
专知
18+阅读 · 2022年9月28日
浅谈群体智能——新一代AI的重要方向
中国科学院自动化研究所
44+阅读 · 2019年10月16日
人工智能训练师的再定义
竹间智能Emotibot
10+阅读 · 2019年5月15日
45K!刚面完 AI 岗,这几点分享给你!
AI100
17+阅读 · 2018年12月18日
不对称多代理博弈中的博弈理论解读
AI前线
14+阅读 · 2018年3月8日
赛尔原创 | 教聊天机器人进行多轮对话
哈工大SCIR
18+阅读 · 2017年9月18日
群体智能:新一代人工智能的重要方向
走向智能论坛
12+阅读 · 2017年8月16日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
20+阅读 · 2013年12月31日
国家自然科学基金
19+阅读 · 2012年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
国家自然科学基金
48+阅读 · 2009年12月31日
Arxiv
0+阅读 · 1月19日
VIP会员
相关VIP内容
自主智能:多模态人工智能代理重塑技术未来
专知会员服务
23+阅读 · 2025年11月23日
Agent AI:多模态交互的新地平线
专知会员服务
21+阅读 · 2025年5月26日
《在单智能体与多智能体AI系统中融入人类合理性》100页
人工智能专题报告:Operator和Manus打开AI Agent时代
专知会员服务
61+阅读 · 2025年3月12日
相关资讯
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
20+阅读 · 2013年12月31日
国家自然科学基金
19+阅读 · 2012年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
国家自然科学基金
48+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员