Understanding and quantifying node importance is a fundamental problem in network science and engineering, underpinning a wide range of applications such as influence maximization, social recommendation, and network dismantling. Prior research often relies on centrality measures or advanced graph embedding techniques using structural information, followed by downstream classification or regression tasks to identify critical nodes. However, these approaches typically decouple node representation learning from the ranking objective and depend heavily on the topological structure of target networks, leading to feature-task inconsistency and poor cross-network generalization. This paper proposes a novel framework that leverages causal representation learning to obtain robust and invariant node embeddings for cross-network ranking tasks. Specifically, we introduce an influence-aware causal node embedding module within an autoencoder architecture to extract node embeddings that are causally related to node importance. Furthermore, we design a unified optimization framework incorporating a causal ranking loss that jointly optimizes reconstruction and ranking objectives, thereby enabling mutual reinforcement between node representation learning and ranking optimization. This design allows the proposed model to be trained on synthetic networks and to generalize effectively across diverse real-world networks. Extensive experiments on multiple benchmark datasets demonstrate that the proposed model consistently outperforms state-of-the-art baselines in terms of both ranking accuracy and cross-network transferability, offering new insights for network analysis and engineering applications-particularly in scenarios where the target network's structure is inaccessible in advance due to privacy or security constraints.


翻译:理解和量化节点重要性是网络科学与工程中的一个基本问题,支撑着影响力最大化、社交推荐和网络拆解等广泛的应用。先前的研究通常依赖于中心性度量或利用结构信息的先进图嵌入技术,随后通过下游分类或回归任务来识别关键节点。然而,这些方法通常将节点表示学习与排序目标解耦,并且严重依赖目标网络的拓扑结构,导致特征-任务不一致以及跨网络泛化能力差。本文提出了一种新颖的框架,该框架利用因果表示学习来获得用于跨网络排序任务的鲁棒且不变的节点嵌入。具体而言,我们在自编码器架构中引入了一个影响感知因果节点嵌入模块,以提取与节点重要性存在因果关系的节点嵌入。此外,我们设计了一个统一的优化框架,该框架结合了因果排序损失,以联合优化重构目标和排序目标,从而实现节点表示学习与排序优化之间的相互促进。这种设计使得所提出的模型能够在合成网络上进行训练,并能有效地泛化到多样化的现实世界网络中。在多个基准数据集上进行的大量实验表明,所提出的模型在排序准确性和跨网络可迁移性方面均持续优于最先进的基线方法,为网络分析和工程应用提供了新的见解——特别是在由于隐私或安全约束而无法预先获取目标网络结构的场景中。

0
下载
关闭预览

相关内容

排序是计算机内经常进行的一种操作,其目的是将一组“无序”的记录序列调整为“有序”的记录序列。分内部排序和外部排序。若整个排序过程不需要访问外存便能完成,则称此类排序问题为内部排序。反之,若参加排序的记录数量很大,整个序列的排序过程不可能在内存中完成,则称此类排序问题为外部排序。内部排序的过程是一个逐步扩大记录的有序序列长度的过程。
专知会员服务
66+阅读 · 2020年9月24日
图节点嵌入(Node Embeddings)概述,9页pdf
专知会员服务
40+阅读 · 2020年8月22日
图节点嵌入(Node Embeddings)概述,9页pdf
专知
15+阅读 · 2020年8月22日
最新《动态网络嵌入》综述论文,25页pdf
专知
37+阅读 · 2020年6月17日
网络表示学习概述
机器学习与推荐算法
19+阅读 · 2020年3月27日
PointNet系列论文解读
人工智能前沿讲习班
17+阅读 · 2019年5月3日
Seq2seq强化,Pointer Network简介
机器学习算法与Python学习
15+阅读 · 2018年12月8日
【深度学习基础】4. Recurrent Neural Networks
微信AI
16+阅读 · 2017年7月19日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员