In this note, we prove that the problem of computing the linear discrepancy of a given matrix is $\Pi_2$-hard, even to approximate within $9/8 - \epsilon$ factor for any $\epsilon > 0$. This strengthens the NP-hardness result of Li and Nikolov [ESA 2020] for the exact version of the problem, and answers a question posed by them. Furthermore, since Li and Nikolov showed that the problem is contained in $\Pi_2$, our result makes linear discrepancy another natural problem that is $\Pi_2$-complete (to approximate).


翻译:在本说明中,我们证明计算某一矩阵线性差异的问题在于$\Pi_2$-hard,甚至近似于9/8 -\ epsilon$(美元) > 0美元。这强化了Li和Nikolov(ESA 2020)对问题确切版本的NP-hard性结果,并回答了他们提出的问题。此外,由于Li和Nikolov显示问题包含在$\Pi_2美元中,我们的结果使得线性差异成为另一个自然问题,即$\Pi_2$(约合)。

0
下载
关闭预览

相关内容

强化学习最新教程,17页pdf
专知会员服务
182+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】免费书(草稿):数据科学的数学基础
机器学习研究会
20+阅读 · 2017年10月1日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年9月4日
Arxiv
0+阅读 · 2021年9月3日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】免费书(草稿):数据科学的数学基础
机器学习研究会
20+阅读 · 2017年10月1日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Arxiv
0+阅读 · 2021年9月4日
Arxiv
0+阅读 · 2021年9月3日
Top
微信扫码咨询专知VIP会员