An $(\alpha,\beta)$-spanner of a weighted graph $G=(V,E)$, is a subgraph $H$ such that for every $u,v\in V$, $d_G(u,v) \le d_H(u,v)\le\alpha\cdot d_G(u,v)+\beta$. The main parameters of interest for spanners are their size (number of edges) and their lightness (the ratio between the total weight of $H$ to the weight of a minimum spanning tree). In this paper we focus on near-additive spanners, where $\alpha=1+\varepsilon$ for arbitrarily small $\varepsilon>0$. We show the first construction of {\em light} spanners in this setting. Specifically, for any integer parameter $k\ge 1$, we obtain an $(1+\varepsilon,O(k/\varepsilon)^k\cdot W(\cdot,\cdot))$-spanner with lightness $\tilde{O}(n^{1/k})$ (where $W(\cdot,\cdot)$ indicates for every pair $u, v \in V$ the heaviest edge in some shortest path between $u,v$). In addition, we can also bound the number of edges in our spanner by $O(kn^{1+3/k})$.


翻译:加权图 $G=(V,E)$ 的 $(\alpha,\beta)$-生成器是其子图 $H$,使得对于任意 $u,v\in V$,满足 $d_G(u,v) \le d_H(u,v)\le\alpha\cdot d_G(u,v)+\beta$。生成器的主要关注参数是其规模(边数)和轻量性($H$ 的总权重与最小生成树权重之比)。本文聚焦于近可加性生成器,其中 $\alpha=1+\varepsilon$ 且 $\varepsilon>0$ 可任意小。我们首次在此设定下构建了{\em 轻量}生成器。具体而言,对于任意整数参数 $k\ge 1$,我们获得了 $(1+\varepsilon,O(k/\varepsilon)^k\cdot W(\cdot,\cdot))$-生成器,其轻量性为 $\tilde{O}(n^{1/k})$(其中 $W(\cdot,\cdot)$ 表示对任意顶点对 $u, v \in V$,在 $u,v$ 间某条最短路径中最重的边)。此外,我们还能将生成器的边数限制为 $O(kn^{1+3/k})$。

0
下载
关闭预览

相关内容

【ACL2020】多模态信息抽取,365页ppt
专知会员服务
151+阅读 · 2020年7月6日
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
32+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
164+阅读 · 2019年10月12日
【NeurIPS2019】图变换网络:Graph Transformer Network
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
From Softmax to Sparsemax-ICML16(1)
KingsGarden
74+阅读 · 2016年11月26日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
1+阅读 · 2024年12月13日
Arxiv
1+阅读 · 2024年12月13日
Arxiv
1+阅读 · 2024年12月12日
Arxiv
1+阅读 · 2024年12月12日
Arxiv
1+阅读 · 2024年12月12日
Arxiv
1+阅读 · 2024年12月11日
Arxiv
1+阅读 · 2024年12月11日
VIP会员
相关资讯
【NeurIPS2019】图变换网络:Graph Transformer Network
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
From Softmax to Sparsemax-ICML16(1)
KingsGarden
74+阅读 · 2016年11月26日
相关基金
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员