Graph-structured datasets are increasingly central to sensitive applications spanning social networks, biomedical research, and cryptographic systems. As organizations share these datasets with trusted parties for collaborative analysis, protecting against unauthorized redistribution becomes critical. Graph watermarking addresses this challenge by embedding detectable signatures that enable ownership verification and attribution of leaked data. However, despite advances in watermarking techniques, existing robustness evaluations remain limited to random edge perturbation attacks, overlooking more sophisticated adversaries who exploit community structure present in real-world graphs. We introduce the first systematic evaluation of cluster-aware attacks on graph watermarking schemes. We present a threat model in which adversaries leverage community detection algorithms to guide strategic edge modifications, targeting either intra-cluster densification with inter-cluster boundary removal, or intra-cluster sparsification with inter-cluster noise injection. Evaluating against the most comprehensively tested watermarking scheme, we demonstrate that cluster-aware attacks outperform random perturbations across real-world datasets and clustering algorithms. Our findings reveal that cluster-aware attacks reduce attribution accuracy while introducing comparable structural distortion to random attacks, demonstrating superior attack efficiency. These results establish that current watermarking schemes, evaluated solely against random perturbations, remain vulnerable to structure-aware adversarial behavior, highlighting the need for robust defenses that account for community-exploiting adversaries in graph-based privacy protection systems.


翻译:图结构数据集在社交网络、生物医学研究和密码系统等敏感应用中的地位日益重要。随着组织与可信方共享这些数据集以进行协作分析,防止未经授权的再分发变得至关重要。图水印技术通过嵌入可检测的签名来解决这一挑战,使得能够对泄露数据进行所有权验证和溯源。然而,尽管水印技术取得了进展,现有的鲁棒性评估仍局限于随机边扰动攻击,忽略了利用现实世界图中存在的社区结构的更复杂对手。我们首次系统评估了针对图水印方案的基于聚类的攻击。我们提出了一种威胁模型,其中对手利用社区检测算法指导策略性的边修改,目标可以是采用簇间边界移除的簇内稠密化,或采用簇间噪声注入的簇内稀疏化。通过对经过最全面测试的水印方案进行评估,我们证明在真实世界数据集和聚类算法上,基于聚类的攻击优于随机扰动。我们的研究结果表明,基于聚类的攻击在引入与随机攻击相当的结构失真的同时,降低了溯源准确性,展示了更优的攻击效率。这些结果证实,当前仅针对随机扰动进行评估的水印方案,在面对结构感知的对抗行为时仍然脆弱,这凸显了在图基隐私保护系统中,需要开发能够应对利用社区结构的对手的鲁棒防御机制。

0
下载
关闭预览

相关内容

《基于动态图神经网络的恶意软件检测》
专知会员服务
14+阅读 · 1月28日
面向 AI 生成图像的安全与鲁棒水印:全面综述
专知会员服务
14+阅读 · 2025年10月6日
扩散模型时代的可视水印:进展与挑战
专知会员服务
7+阅读 · 2025年5月17日
《图像数据隐藏技术综述》
专知会员服务
42+阅读 · 2023年3月26日
图数据上的隐私攻击与防御技术
专知会员服务
28+阅读 · 2022年4月28日
【NeurIPS2021】基于贝叶斯优化的图分类对抗攻击
专知会员服务
18+阅读 · 2021年11月6日
专知会员服务
28+阅读 · 2021年7月16日
对抗攻击之利用水印生成对抗样本
计算机视觉life
10+阅读 · 2020年9月27日
图分类:结合胶囊网络Capsule和图卷积GCN(附代码)
中国人工智能学会
36+阅读 · 2019年2月26日
专栏 | 手把手教你用DGL框架进行批量图分类
机器之心
14+阅读 · 2019年1月29日
深度学习时代的图模型,清华发文综述图网络
GAN生成式对抗网络
13+阅读 · 2018年12月23日
图神经网络最近这么火,不妨看看我们精选的这七篇
人工智能前沿讲习班
37+阅读 · 2018年12月10日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关VIP内容
《基于动态图神经网络的恶意软件检测》
专知会员服务
14+阅读 · 1月28日
面向 AI 生成图像的安全与鲁棒水印:全面综述
专知会员服务
14+阅读 · 2025年10月6日
扩散模型时代的可视水印:进展与挑战
专知会员服务
7+阅读 · 2025年5月17日
《图像数据隐藏技术综述》
专知会员服务
42+阅读 · 2023年3月26日
图数据上的隐私攻击与防御技术
专知会员服务
28+阅读 · 2022年4月28日
【NeurIPS2021】基于贝叶斯优化的图分类对抗攻击
专知会员服务
18+阅读 · 2021年11月6日
专知会员服务
28+阅读 · 2021年7月16日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员