We revisit Approximate Graph Propagation (AGP), a unified framework which captures various graph propagation tasks, such as PageRank, feature propagation in Graph Neural Networks (GNNs), and graph-based Retrieval-Augmented Generation (RAG). Our work focuses on the settings of dynamic graphs and dynamic parameterized queries, where the underlying graphs evolve over time (updated by edge insertions or deletions) and the input query parameters are specified on the fly to fit application needs. Our first contribution is an interesting observation that the SOTA solution, AGP-Static, can be adapted to support dynamic parameterized queries; however several challenges remain unresolved. Firstly, the query time complexity of AGP-Static is based on an assumption of using an optimal algorithm for subset sampling in its query algorithm. Unfortunately, back to that time, such an algorithm did not exist; without such an optimal algorithm, an extra $O(\log^2 n)$ factor is required in the query complexity, where $n$ is the number of vertices in the graphs. Secondly, AGP-Static performs poorly on dynamic graphs, taking $O(n\log n)$ time to process each update. To address these challenges, we propose a new algorithm, AGP-Static++, which is simpler yet reduces roughly a factor of $O(\log^2 n)$ in the query complexity while preserving the approximation guarantees of AGP-Static. However, AGP-Static++ still requires $O(n)$ time to process each update. To better support dynamic graphs, we further propose AGP-Dynamic, which achieves $O(1)$ amortized time per update, significantly improving the aforementioned $O(n)$ per-update bound, while still preserving the query complexity and approximation guarantees. Last, our comprehensive experiments validate the theoretical improvements: compared to the baselines, our algorithm achieves speedups of up to $177\times$ on update time and $10\times$ on query efficiency.


翻译:本文重新审视近似图传播(AGP)这一统一框架,该框架涵盖了多种图传播任务,例如PageRank、图神经网络(GNN)中的特征传播以及基于图的检索增强生成(RAG)。我们的工作聚焦于动态图与动态参数化查询场景,其中底层图结构随时间演化(通过边插入或删除进行更新),且输入查询参数可根据应用需求即时指定。我们的首要贡献是一个有趣的观察:现有最优解AGP-Static可被调整以支持动态参数化查询;然而若干挑战仍未解决。首先,AGP-Static的查询时间复杂度基于在其查询算法中使用最优子集采样算法的假设。遗憾的是,当时此类算法并不存在;若缺乏该最优算法,查询复杂度需额外增加$O(\log^2 n)$因子(其中$n$为图中顶点数)。其次,AGP-Static在动态图上表现不佳,处理每次更新需$O(n\log n)$时间。为应对这些挑战,我们提出新算法AGP-Static++,该算法更简洁,且在保持AGP-Static近似保证的同时,将查询复杂度降低约$O(\log^2 n)$因子。然而,AGP-Static++仍需$O(n)$时间处理每次更新。为更好支持动态图,我们进一步提出AGP-Dynamic算法,其实现每次更新$O(1)$的摊还时间,显著改进了前述$O(n)$的每更新界,同时仍保持查询复杂度与近似保证。最后,我们通过全面实验验证了理论改进:相较于基线方法,我们的算法在更新时间上实现高达177倍的加速,在查询效率上实现10倍的提升。

0
下载
关闭预览

相关内容

在数学和计算机科学之中,算法(Algorithm)为一个计算的具体步骤,常用于计算、数据处理和自动推理。精确而言,算法是一个表示为有限长列表的有效方法。算法应包含清晰定义的指令用于计算函数。 来自维基百科: 算法
图增强生成(GraphRAG)
专知会员服务
34+阅读 · 2025年1月4日
【WWW2024】重新思考大规模图学习中的节点式传播
专知会员服务
25+阅读 · 2024年2月12日
【WWW2024】GraphPro:推荐系统中的图预训练与提示学习
专知会员服务
23+阅读 · 2024年1月26日
【LoG2023】图神经网络推荐:再现性、图拓扑和节点表示
专知会员服务
26+阅读 · 2023年12月1日
Graph Transformer近期进展
专知会员服务
65+阅读 · 2023年1月5日
【NeurIPS2020】点针图网络,Pointer Graph Networks
专知会员服务
40+阅读 · 2020年9月27日
Graph Neural Network(GNN)最全资源整理分享
深度学习与NLP
339+阅读 · 2019年7月9日
Github热门图深度学习(GraphDL)源码与框架
新智元
21+阅读 · 2019年3月19日
掌握图神经网络GNN基本,看这篇文章就够了
新智元
164+阅读 · 2019年2月14日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 1月8日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员