For a graph $G$, we denote by $α(G)$ the size of a maximum independent set and by $ω(G)$ the size of a maximum clique in $G$. Our paper lies on the edge of two lines of research, related to $α$ and $ω$, respectively. One of them studies $α$-variants of graph parameters, such as $α$-treewidth or $α$-degeneracy. The second line deals with graph classes where some parameters are bounded by a function of $ω(G)$. A famous example of this type is the family of $χ$-bounded classes, where the chromatic number $χ(G)$ is bounded by a function of $ω(G)$. A Ramsey-type argument implies that if the $α$-variant of a graph parameter $ρ$ is bounded by a constant in a class $\mathcal{G}$, then $ρ$ is bounded by a function of $ω$ in $\mathcal{G}$. If the reverse implication also holds, we say that $ρ$ is awesome. Otherwise, we say that $ρ$ is awful. In the present paper, we identify a number of awesome and awful graph parameters, derive some algorithmic applications of awesomeness, and propose a number of open problems related to these notions.


翻译:对于图$G$,我们用$α(G)$表示最大独立集的大小,用$ω(G)$表示最大团的大小。本文的研究处于两条研究路线的交叉点,分别与$α$和$ω$相关。其中一条路线研究图参数的$α$变体,例如$α$-树宽或$α$-退化度。第二条路线研究某些参数以$ω(G)$的函数为界的图类。此类的一个著名例子是$χ$-有界类族,其中色数$χ(G)$以$ω(G)$的函数为界。根据拉姆齐型论证可知,若图参数$ρ$的$α$变体在类$\mathcal{G}$中为常数有界,则$ρ$在$\mathcal{G}$中以$ω$的函数为界。若反向蕴含关系也成立,则称$ρ$是卓越的;否则称$ρ$是糟糕的。本文识别了若干卓越与糟糕的图参数,推导了卓越性的一些算法应用,并提出了与这些概念相关的若干开放问题。

0
下载
关闭预览

相关内容

【ICML2025】生成模型中潜空间的Hessian几何结构
专知会员服务
17+阅读 · 2025年6月15日
【ECCV2024】边缘感知Transformer的场景文本分割
专知会员服务
15+阅读 · 2024年7月25日
【ICML2024】超图增强的双半监督图分类
专知会员服务
15+阅读 · 2024年5月9日
【AAAI2023】面向领域自适应语义分割的几何感知网络
专知会员服务
21+阅读 · 2022年12月7日
【ICLR2022】GNN-LM基于全局信息的图神经网络语义理解模型
专知会员服务
38+阅读 · 2021年6月3日
专知会员服务
50+阅读 · 2021年6月2日
专知会员服务
46+阅读 · 2020年10月22日
图节点嵌入(Node Embeddings)概述,9页pdf
专知会员服务
40+阅读 · 2020年8月22日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
图节点嵌入(Node Embeddings)概述,9页pdf
专知
15+阅读 · 2020年8月22日
【NeurIPS2019】图变换网络:Graph Transformer Network
CNN 反向传播算法推导
统计学习与视觉计算组
30+阅读 · 2017年12月29日
图注意力网络
科技创新与创业
35+阅读 · 2017年11月22日
回归预测&时间序列预测
GBASE数据工程部数据团队
44+阅读 · 2017年5月17日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
18+阅读 · 2024年12月27日
A Survey of Large Language Models
Arxiv
499+阅读 · 2023年3月31日
Arxiv
69+阅读 · 2022年9月7日
Arxiv
18+阅读 · 2021年3月16日
Recent advances in deep learning theory
Arxiv
50+阅读 · 2020年12月20日
A survey on deep hashing for image retrieval
Arxiv
15+阅读 · 2020年6月10日
Position-aware Graph Neural Networks
Arxiv
15+阅读 · 2019年6月11日
VIP会员
相关VIP内容
【ICML2025】生成模型中潜空间的Hessian几何结构
专知会员服务
17+阅读 · 2025年6月15日
【ECCV2024】边缘感知Transformer的场景文本分割
专知会员服务
15+阅读 · 2024年7月25日
【ICML2024】超图增强的双半监督图分类
专知会员服务
15+阅读 · 2024年5月9日
【AAAI2023】面向领域自适应语义分割的几何感知网络
专知会员服务
21+阅读 · 2022年12月7日
【ICLR2022】GNN-LM基于全局信息的图神经网络语义理解模型
专知会员服务
38+阅读 · 2021年6月3日
专知会员服务
50+阅读 · 2021年6月2日
专知会员服务
46+阅读 · 2020年10月22日
图节点嵌入(Node Embeddings)概述,9页pdf
专知会员服务
40+阅读 · 2020年8月22日
相关资讯
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
图节点嵌入(Node Embeddings)概述,9页pdf
专知
15+阅读 · 2020年8月22日
【NeurIPS2019】图变换网络:Graph Transformer Network
CNN 反向传播算法推导
统计学习与视觉计算组
30+阅读 · 2017年12月29日
图注意力网络
科技创新与创业
35+阅读 · 2017年11月22日
回归预测&时间序列预测
GBASE数据工程部数据团队
44+阅读 · 2017年5月17日
相关论文
Arxiv
18+阅读 · 2024年12月27日
A Survey of Large Language Models
Arxiv
499+阅读 · 2023年3月31日
Arxiv
69+阅读 · 2022年9月7日
Arxiv
18+阅读 · 2021年3月16日
Recent advances in deep learning theory
Arxiv
50+阅读 · 2020年12月20日
A survey on deep hashing for image retrieval
Arxiv
15+阅读 · 2020年6月10日
Position-aware Graph Neural Networks
Arxiv
15+阅读 · 2019年6月11日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员