Graph Neural Networks (GNNs) unlock new ways of learning from graph-structured data, proving highly effective in capturing complex relationships and patterns. Federated GNNs (FGNNs) have emerged as a prominent distributed learning paradigm for training GNNs over decentralized data. However, FGNNs face two significant challenges: high communication overhead from multiple rounds of parameter exchanges and non-IID data characteristics across clients. To address these issues, we introduce CeFGC, a novel FGNN paradigm that facilitates efficient GNN training over non-IID data by limiting communication between the server and clients to three rounds only. The core idea of CeFGC is to leverage generative diffusion models to minimize direct client-server communication. Each client trains a generative diffusion model that captures its local graph distribution and shares this model with the server, which then redistributes it back to all clients. Using these generative models, clients generate synthetic graphs combined with their local graphs to train local GNN models. Finally, clients upload their model weights to the server for aggregation into a global GNN model. We theoretically analyze the I/O complexity of communication volume to show that CeFGC reduces to a constant of three communication rounds only. Extensive experiments on several real graph datasets demonstrate the effectiveness and efficiency of CeFGC against state-of-the-art competitors, reflecting our superior performance on non-IID graphs by aligning local and global model objectives and enriching the training set with diverse graphs.


翻译:图神经网络(GNNs)为从图结构数据中学习开辟了新途径,在捕获复杂关系和模式方面表现出高效能。联邦图神经网络(FGNNs)已成为一种重要的分布式学习范式,用于在去中心化数据上训练GNN。然而,FGNN面临两大挑战:多轮参数交换带来的高通信开销,以及客户端间非独立同分布的数据特性。为解决这些问题,我们提出了CeFGC,一种新颖的FGNN范式,通过将服务器与客户端之间的通信限制为仅三轮,实现在非独立同分布数据上的高效GNN训练。CeFGC的核心思想是利用生成扩散模型来最小化客户端与服务器之间的直接通信。每个客户端训练一个捕获其局部图分布的生成扩散模型,并将该模型共享给服务器,服务器随后将其重新分发给所有客户端。利用这些生成模型,客户端生成合成图并结合其局部图来训练本地GNN模型。最后,客户端将其模型权重上传至服务器,聚合成全局GNN模型。我们从理论上分析了通信量的I/O复杂度,证明CeFGC将通信轮次减少至仅三轮常数。在多个真实图数据集上的大量实验表明,CeFGC相较于现有先进方法具有显著的有效性和效率,通过对齐局部与全局模型目标并以多样化图丰富训练集,在非独立同分布图上展现出优越性能。

0
下载
关闭预览

相关内容

服务器,也称伺服器,是提供计算服务的设备。由于服务器需要响应服务请求,并进行处理,因此一般来说服务器应具备承担服务并且保障服务的能力。
服务器的构成包括处理器、硬盘、内存、系统总线等,和通用的计算机架构类似,但是由于需要提供高可靠的服务,因此在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面要求较高。
【WWW2024】使用图神经网络的消歧节点分类
专知会员服务
21+阅读 · 2024年2月15日
【简明章节书】图神经网络分子建模,67页pdf
专知会员服务
22+阅读 · 2022年10月11日
专知会员服务
140+阅读 · 2021年3月30日
专知会员服务
29+阅读 · 2020年8月8日
【KDD2020】图神经网络生成式预训练
专知
23+阅读 · 2020年7月3日
图神经网络火了?谈下它的普适性与局限性
机器之心
22+阅读 · 2019年7月29日
Graph Neural Network(GNN)最全资源整理分享
深度学习与NLP
339+阅读 · 2019年7月9日
掌握图神经网络GNN基本,看这篇文章就够了
新智元
164+阅读 · 2019年2月14日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
VIP会员
相关基金
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员