Graph-based Retrieval-Augmented Generation (GraphRAG) organizes external knowledge as a hierarchical graph, enabling efficient retrieval and aggregation of scattered evidence across multiple documents. However, many existing benchmarks for GraphRAG rely on short, curated passages as external knowledge, failing to adequately evaluate systems in realistic settings involving long contexts and large-scale heterogeneous documents. To bridge this gap, we introduce WildGraphBench, a benchmark designed to assess GraphRAG performance in the wild. We leverage Wikipedia's unique structure, where cohesive narratives are grounded in long and heterogeneous external reference documents, to construct a benchmark reflecting real-word scenarios. Specifically, we sample articles across 12 top-level topics, using their external references as the retrieval corpus and citation-linked statements as ground truth, resulting in 1,100 questions spanning three levels of complexity: single-fact QA, multi-fact QA, and section-level summarization. Experiments across multiple baselines reveal that current GraphRAG pipelines help on multi-fact aggregation when evidence comes from a moderate number of sources, but this aggregation paradigm may overemphasize high-level statements at the expense of fine-grained details, leading to weaker performance on summarization tasks. Project page:https://github.com/BstWPY/WildGraphBench.


翻译:基于图的检索增强生成(GraphRAG)将外部知识组织为层次化图结构,从而能够高效检索并聚合分散在多个文档中的证据。然而,现有许多GraphRAG基准测试依赖于简短、经过人工整理的段落作为外部知识,无法充分评估系统在涉及长上下文和大规模异构文档的真实场景中的性能。为弥补这一不足,我们提出了WildGraphBench,这是一个专为评估GraphRAG在野生环境下的性能而设计的基准测试。我们利用维基百科的独特结构——其连贯的叙述均基于长篇幅且异构的外部参考文献——构建了一个反映真实场景的基准。具体而言,我们在12个顶级主题下采样文章,以其外部参考文献作为检索语料库,并将引文关联的陈述作为标准答案,最终构建了涵盖三个复杂度级别的1100个问题:单事实问答、多事实问答和章节级摘要生成。在多个基线模型上的实验表明,当证据来源数量适中时,当前的GraphRAG流程有助于多事实聚合;但这种聚合范式可能过度强调高层级陈述而忽略细粒度细节,导致在摘要生成任务上表现较弱。项目页面:https://github.com/BstWPY/WildGraphBench。

0
下载
关闭预览

相关内容

检索增强生成(RAG)技术,261页slides
专知会员服务
41+阅读 · 2025年10月16日
【新书】Essential GraphRAG: 知识图谱增强的RAG
专知会员服务
32+阅读 · 2025年7月17日
【SIGIR2025教程】动态与参数化检索增强生成
专知会员服务
16+阅读 · 2025年7月14日
图增强生成(GraphRAG)
专知会员服务
34+阅读 · 2025年1月4日
【Code】GraphSAGE 源码解析
AINLP
31+阅读 · 2020年6月22日
Graph Neural Network(GNN)最全资源整理分享
深度学习与NLP
339+阅读 · 2019年7月9日
Github热门图深度学习(GraphDL)源码与框架
新智元
21+阅读 · 2019年3月19日
基于图片内容的深度学习图片检索(一)
七月在线实验室
20+阅读 · 2017年10月1日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员