Distributed multi-agent systems use large language models to enable collaborative intelligence while preserving privacy, yet systematic evaluations of long-term memory under network constraints remain limited. This study presents a flexible testbed comparing mem0, a vector-based memory framework, and Graphiti, a graph-based knowledge graph, using the LOCOMO long-context benchmark. Experiments were conducted under unconstrained and constrained network conditions, measuring computational, financial, and accuracy metrics. Results indicate that mem0 significantly outperforms Graphiti in efficiency, with faster loading times, lower resource consumption, and minimal network overhead, while accuracy differences are not statistically significant. Applying a statistical pareto efficiency framework, mem0 is identified as the optimal choice that balances cost and accuracy in DMAS.


翻译:分布式多智能体系统利用大语言模型实现协同智能并保护隐私,但在网络约束下对长期记忆的系统性评估仍较为有限。本研究提出了一个灵活测试平台,基于LOCOMO长上下文基准,对向量记忆框架mem0和图知识图谱Graphiti进行比较。实验在无约束和约束网络条件下进行,测量了计算、财务和精度指标。结果表明,mem0在效率上显著优于Graphiti,具有更快的加载速度、更低的资源消耗和最小的网络开销,而精度差异未达到统计学显著性。通过应用统计帕累托效率框架,本研究确定mem0是在分布式多智能体系统中平衡成本与精度的最优选择。

0
下载
关闭预览

相关内容

MMA:多模态记忆智能体
专知会员服务
9+阅读 · 2月19日
《多智能体大语言模型系统的可靠决策研究》
专知会员服务
31+阅读 · 2月2日
LLM/智能体作为数据分析师:综述
专知会员服务
36+阅读 · 2025年9月30日
多智能体博弈中的分布式学习: 原理与算法
专知会员服务
54+阅读 · 2024年6月13日
多智能体系统带宽分配及预测云控制
专知会员服务
18+阅读 · 2023年7月9日
【综述】多智能体强化学习算法理论研究
深度强化学习实验室
15+阅读 · 2020年9月9日
多智能体强化学习(MARL)近年研究概览
PaperWeekly
38+阅读 · 2020年3月15日
论文浅尝 | 学习开发知识图谱中的长期关系依赖 - ICML 2019
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
VIP会员
相关VIP内容
MMA:多模态记忆智能体
专知会员服务
9+阅读 · 2月19日
《多智能体大语言模型系统的可靠决策研究》
专知会员服务
31+阅读 · 2月2日
LLM/智能体作为数据分析师:综述
专知会员服务
36+阅读 · 2025年9月30日
多智能体博弈中的分布式学习: 原理与算法
专知会员服务
54+阅读 · 2024年6月13日
多智能体系统带宽分配及预测云控制
专知会员服务
18+阅读 · 2023年7月9日
相关基金
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员