The introduction of artificial intelligence (AI) agents into human group settings raises essential questions about how these novel participants influence cooperative social norms. While previous studies on human-AI cooperation have primarily focused on dyadic interactions, little is known about how integrating AI agents affects the emergence and maintenance of cooperative norms in small groups. This study addresses this gap through an online experiment using a repeated four-player Public Goods Game (PGG). Each group consisted of three human participants and one bot, which was framed either as human or AI and followed one of three predefined decision strategies: unconditional cooperation, conditional cooperation, or free-riding. In our sample of 236 participants, we found that reciprocal group dynamics and behavioural inertia primarily drove cooperation. These normative mechanisms operated identically across conditions, resulting in cooperation levels that did not differ significantly between human and AI labels. Furthermore, we found no evidence of differences in norm persistence in a follow-up Prisoner's Dilemma, or in participants' normative perceptions. Participants' behaviour followed the same normative logic across human and AI conditions, indicating that cooperation depended on group behaviour rather than partner identity. This supports a pattern of normative equivalence, in which the mechanisms that sustain cooperation function similarly in mixed human-AI and all human groups. These findings suggest that cooperative norms are flexible enough to extend to artificial agents, blurring the boundary between humans and AI in collective decision-making.


翻译:人工智能(AI)智能体进入人类群体环境引发了关于这些新型参与者如何影响合作性社会规范的重要问题。尽管先前关于人机协作的研究主要集中于二元互动,但对于AI智能体的引入如何影响小群体中合作规范的形成与维持,目前仍知之甚少。本研究通过一项基于重复四玩家公共物品博弈(PGG)的在线实验来填补这一空白。每个群体由三名人类参与者和一个机器人组成,该机器人被设定为人类或AI身份,并遵循三种预定义决策策略之一:无条件合作、条件合作或搭便车。在我们包含236名参与者的样本中,我们发现互惠性群体动态和行为惯性是驱动合作的主要因素。这些规范机制在不同条件下以相同方式运作,导致合作水平在人类与AI标签之间无显著差异。此外,在后续的囚徒困境博弈中,我们没有发现规范持续性存在差异的证据,参与者的规范认知也无显著区别。参与者在人类与AI条件下的行为遵循相同的规范逻辑,表明合作取决于群体行为而非伙伴身份。这支持了规范等效性的模式,即维持合作的机制在混合人机群体与纯人类群体中以相似方式发挥作用。这些发现表明合作规范具有足够的灵活性,可延伸至人工智能体,从而模糊了集体决策中人类与AI之间的界限。

0
下载
关闭预览

相关内容

人工智能杂志AI(Artificial Intelligence)是目前公认的发表该领域最新研究成果的主要国际论坛。该期刊欢迎有关AI广泛方面的论文,这些论文构成了整个领域的进步,也欢迎介绍人工智能应用的论文,但重点应该放在新的和新颖的人工智能方法如何提高应用领域的性能,而不是介绍传统人工智能方法的另一个应用。关于应用的论文应该描述一个原则性的解决方案,强调其新颖性,并对正在开发的人工智能技术进行深入的评估。 官网地址:http://dblp.uni-trier.de/db/journals/ai/
《在单智能体与多智能体AI系统中融入人类合理性》100页
《机器智能体的混合认知模型》最新128页
专知会员服务
56+阅读 · 2024年12月20日
《用于个性化人机协作的可解释人工智能》269页
专知会员服务
47+阅读 · 2024年5月7日
《信任与人机协作》128页论文
专知会员服务
51+阅读 · 2023年11月22日
清华大学:从单体仿生到群体智能
专知
18+阅读 · 2022年2月9日
【人机融合智能】人机融合智能的现状与展望
产业智能官
11+阅读 · 2020年3月18日
浅谈群体智能——新一代AI的重要方向
中国科学院自动化研究所
44+阅读 · 2019年10月16日
基于车路协同的群体智能协同
智能交通技术
10+阅读 · 2019年1月23日
【混合智能】人机混合智能的哲学思考
产业智能官
12+阅读 · 2018年10月28日
CCCF专栏文章:人机共融智能
中国计算机学会
15+阅读 · 2017年12月21日
群体智能:新一代人工智能的重要方向
走向智能论坛
12+阅读 · 2017年8月16日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
20+阅读 · 2013年12月31日
国家自然科学基金
19+阅读 · 2012年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
国家自然科学基金
48+阅读 · 2009年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
VIP会员
相关资讯
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
20+阅读 · 2013年12月31日
国家自然科学基金
19+阅读 · 2012年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
国家自然科学基金
48+阅读 · 2009年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员