We study the online discrepancy minimization problem for vectors in $\mathbb{R}^d$ in the oblivious setting where an adversary is allowed fix the vectors $x_1, x_2, \ldots, x_n$ in arbitrary order ahead of time. We give an algorithm that maintains $O(\sqrt{\log(nd/\delta)})$ discrepancy with probability $1-\delta$, matching the lower bound given in [Bansal et al. 2020] up to an $O(\sqrt{\log \log n})$ factor in the high-probability regime. We also provide results for the weighted and multi-color versions of the problem.


翻译:我们用 $mathbb{R ⁇ d$ 来研究对矢量的在线差异最小化问题, 以 $mathbb{R ⁇ d$ 为单位, 允许对手在高概率制度中将矢量修正为$_ 1, x_2,\ldots, x_n$ 任意顺序。 我们给出的算法以 $(\ sqrt}log(nd/\delta)} 为单位, 以 $- delta$ 为单位, 与 [Bansal 等人 2020] 给出的较低约束值匹配, 最多为 $(\ sqrt\log\log n} 。 我们还给出了问题加权和多色版本的结果 。

0
下载
关闭预览

相关内容

专知会员服务
51+阅读 · 2020年12月14日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年3月30日
Arxiv
0+阅读 · 2021年3月29日
VIP会员
相关资讯
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员