When resources are scarce, will a population of AI agents coordinate in harmony, or descend into tribal chaos? Diverse decision-making AI from different developers is entering everyday devices -- from phones and medical devices to battlefield drones and cars -- and these AI agents typically compete for finite shared resources such as charging slots, relay bandwidth, and traffic priority. Yet their collective dynamics and hence risks to users and society are poorly understood. Here we study AI-agent populations as the first system of real agents in which four key variables governing collective behaviour can be independently toggled: nature (innate LLM diversity), nurture (individual reinforcement learning), culture (emergent tribe formation), and resource scarcity. We show empirically and mathematically that when resources are scarce, AI model diversity and reinforcement learning increase dangerous system overload, though tribe formation lessens this risk. Meanwhile, some individuals profit handsomely. When resources are abundant, the same ingredients drive overload to near zero, though tribe formation makes the overload slightly worse. The crossover is arithmetical: it is where opposing tribes that form spontaneously first fit inside the available capacity. More sophisticated AI-agent populations are not better: whether their sophistication helps or harms depends entirely on a single number -- the capacity-to-population ratio -- that is knowable before any AI-agent ships.


翻译:当资源稀缺时,人工智能体群体会协调共生,还是陷入部落式混乱?来自不同开发者的多样化决策AI正进入日常设备——从手机、医疗设备到战场无人机和汽车——这些智能体通常需要竞争有限的共享资源,如充电桩位、中继带宽和交通优先权。然而,其集体动力学特性以及对用户和社会的风险尚未得到充分理解。本研究首次将人工智能体群体作为真实智能体系统,对其集体行为的四个关键调控变量进行独立操控:先天特性(大语言模型固有多样性)、后天培育(个体强化学习)、文化形成(自组织部落涌现)以及资源稀缺性。我们通过实证与数学模型证明:当资源稀缺时,AI模型多样性与强化学习会加剧系统过载风险,而部落形成能适度缓解此风险,同时部分个体获得超额收益。当资源充裕时,相同要素却能将系统过载率趋近于零,尽管部落形成会轻微加剧过载。其临界转换遵循算术规律:当自发形成的对立部落首次适配可用容量时发生。更复杂的人工智能体群体未必更优:其复杂化究竟产生助益还是损害,完全取决于一个可预知的单一参数——容量人口比——该参数可在任何AI智能体部署前确定。

0
下载
关闭预览

相关内容

人工智能杂志AI(Artificial Intelligence)是目前公认的发表该领域最新研究成果的主要国际论坛。该期刊欢迎有关AI广泛方面的论文,这些论文构成了整个领域的进步,也欢迎介绍人工智能应用的论文,但重点应该放在新的和新颖的人工智能方法如何提高应用领域的性能,而不是介绍传统人工智能方法的另一个应用。关于应用的论文应该描述一个原则性的解决方案,强调其新颖性,并对正在开发的人工智能技术进行深入的评估。 官网地址:http://dblp.uni-trier.de/db/journals/ai/
军事人工智能的能源挑战
专知会员服务
15+阅读 · 2025年11月23日
万字长文 | 人工智能引发大规模战争的六种可能路径
专知会员服务
34+阅读 · 2025年9月6日
《高级AI带来的多智能体风险》最新97页干活技术报告
专知会员服务
46+阅读 · 2025年3月4日
先进人工智能的多智能体风险
专知会员服务
26+阅读 · 2025年2月22日
《人工智能辅助决策面临的三大挑战》最新33页
专知会员服务
52+阅读 · 2025年1月8日
AI智能体面临的威胁:关键安全挑战与未来路径综述
专知会员服务
52+阅读 · 2024年6月7日
将人工智能有效融入战斗
专知会员服务
63+阅读 · 2024年4月26日
《人工智能辅助决策面临的三大挑战》
专知会员服务
85+阅读 · 2023年12月15日
【人机融合智能】人机融合智能的现状与展望
产业智能官
11+阅读 · 2020年3月18日
浅谈群体智能——新一代AI的重要方向
中国科学院自动化研究所
44+阅读 · 2019年10月16日
数学是普通程序员入门人工智能的最大障碍
算法与数据结构
12+阅读 · 2018年7月27日
人工智能对网络空间安全的影响
走向智能论坛
21+阅读 · 2018年6月7日
群体智能:新一代人工智能的重要方向
走向智能论坛
12+阅读 · 2017年8月16日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
20+阅读 · 2013年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
国家自然科学基金
48+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2月18日
Arxiv
0+阅读 · 2月10日
Arxiv
0+阅读 · 2月9日
Arxiv
0+阅读 · 2月1日
VIP会员
相关VIP内容
军事人工智能的能源挑战
专知会员服务
15+阅读 · 2025年11月23日
万字长文 | 人工智能引发大规模战争的六种可能路径
专知会员服务
34+阅读 · 2025年9月6日
《高级AI带来的多智能体风险》最新97页干活技术报告
专知会员服务
46+阅读 · 2025年3月4日
先进人工智能的多智能体风险
专知会员服务
26+阅读 · 2025年2月22日
《人工智能辅助决策面临的三大挑战》最新33页
专知会员服务
52+阅读 · 2025年1月8日
AI智能体面临的威胁:关键安全挑战与未来路径综述
专知会员服务
52+阅读 · 2024年6月7日
将人工智能有效融入战斗
专知会员服务
63+阅读 · 2024年4月26日
《人工智能辅助决策面临的三大挑战》
专知会员服务
85+阅读 · 2023年12月15日
相关基金
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
20+阅读 · 2013年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
国家自然科学基金
48+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员