Effective real-world multi-agent collaboration requires not only accurate planning but also the ability to reason about collaborators' intents--a crucial capability for avoiding miscoordination and redundant communication under partial observable environments. Due to their strong planning and reasoning capabilities, large language models (LLMs) have emerged as promising autonomous agents for collaborative task solving. However, existing collaboration frameworks for LLMs overlook their reasoning potential for dynamic intent inference, and thus produce inconsistent plans and redundant communication, reducing collaboration efficiency. To bridge this gap, we propose CoBel-World, a novel framework that equips LLM agents with a Collaborative Belief World--an internal representation jointly modeling the physical environment and collaborators' mental states. CoBel-World enables agents to parse external open-world knowledge into structured beliefs via a symbolic belief representation module, and perform zero-shot Bayesian-style belief updates through LLM reasoning. This allows agents to proactively detect potential miscoordination (e.g., conflicting plans) and communicate adaptively. Evaluated on challenging embodied benchmarks (i.e., TDW-MAT and C-WAH), CoBel-World significantly reduces communication costs by 64-79% and improves task completion efficiency by 4-28% compared to the strongest baseline. Our results show that explicit, intent-aware belief modeling is essential for efficient and human-like collaboration in LLM-based multi-agent systems.


翻译:现实世界中有效的多智能体协作不仅需要精确规划,还需具备推断合作者意图的能力——这一关键能力对于在部分可观测环境中避免协调失误和冗余通信至关重要。凭借其强大的规划与推理能力,大语言模型已成为解决协作任务中极具前景的自主智能体。然而,现有的大语言模型协作框架忽视了其在动态意图推断方面的推理潜力,导致产生不一致的规划与冗余通信,降低了协作效率。为弥补这一缺陷,我们提出CoBel-World框架,该框架通过赋予大语言模型智能体“协作信念世界”——一种联合建模物理环境与合作者心理状态的内部表征。CoBel-World使智能体能够通过符号化信念表征模块将外部开放世界知识解析为结构化信念,并借助大语言模型推理实现零样本贝叶斯式信念更新。这使得智能体能够主动检测潜在的协调失误(如冲突规划)并进行自适应通信。在具身智能基准测试(即TDW-MAT与C-WAH)上的评估表明,相较于最强基线方法,CoBel-World显著降低通信成本达64-79%,并将任务完成效率提升4-28%。我们的研究结果表明,显式的意图感知信念建模对于基于大语言模型的多智能体系统实现高效、类人化协作具有至关重要的意义。

0
下载
关闭预览

相关内容

《多智能体大语言模型系统的可靠决策研究》
专知会员服务
31+阅读 · 2月2日
大语言模型的智能体化推理
专知会员服务
32+阅读 · 1月21日
【伯克利博士论文】协同语言智能体
专知会员服务
21+阅读 · 1月10日
【EPFL博士论文】大型语言模型时代的协作式智能体
专知会员服务
32+阅读 · 2025年5月16日
多循环嵌套的大语言模型多智能体指挥控制过程
专知会员服务
42+阅读 · 2025年1月19日
多智能体协作机制:大语言模型综述
专知会员服务
84+阅读 · 2025年1月14日
面向多智能体博弈对抗的对手建模框架
专知
18+阅读 · 2022年9月28日
基于车路协同的群体智能协同
智能交通技术
10+阅读 · 2019年1月23日
关系推理:基于表示学习和语义要素
计算机研究与发展
19+阅读 · 2017年8月22日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
19+阅读 · 2012年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
VIP会员
相关VIP内容
《多智能体大语言模型系统的可靠决策研究》
专知会员服务
31+阅读 · 2月2日
大语言模型的智能体化推理
专知会员服务
32+阅读 · 1月21日
【伯克利博士论文】协同语言智能体
专知会员服务
21+阅读 · 1月10日
【EPFL博士论文】大型语言模型时代的协作式智能体
专知会员服务
32+阅读 · 2025年5月16日
多循环嵌套的大语言模型多智能体指挥控制过程
专知会员服务
42+阅读 · 2025年1月19日
多智能体协作机制:大语言模型综述
专知会员服务
84+阅读 · 2025年1月14日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
19+阅读 · 2012年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员