Bayesian optimization (BO) has traditionally solved black-box problems where function evaluation is expensive and, therefore, observations are few. Recently, however, there has been growing interest in applying BO to problems where function evaluation is cheaper and observations are more plentiful. In this regime, scaling to many observations $N$ is impeded by Gaussian-process (GP) surrogates: GP hyperparameter fitting scales as $\mathcal{O}(N^3)$ (reduced to roughly $\mathcal{O}(N^2)$ in modern implementations), and it is repeated at every BO iteration. Many methods improve scaling at acquisition time, but hyperparameter fitting still scales poorly, making it the bottleneck. We propose Epistemic Nearest Neighbors (ENN), a lightweight alternative to GPs that estimates function values and uncertainty (epistemic and aleatoric) from $K$-nearest-neighbor observations. ENN scales as $\mathcal{O}(N)$ for both fitting and acquisition. Our BO method, TuRBO-ENN, replaces the GP surrogate in TuRBO with ENN and its Thompson-sampling acquisition with $\mathrm{UCB} = μ(x) + σ(x)$. For the special case of noise-free problems, we can omit fitting altogether by replacing $\mathrm{UCB}$ with a non-dominated sort over $μ(x)$ and $σ(x)$. We show empirically that TuRBO-ENN reduces proposal time (i.e., fitting time + acquisition time) by one to two orders of magnitude compared to TuRBO at up to 50,000 observations.


翻译:贝叶斯优化(BO)传统上用于解决黑箱问题,其中函数评估成本高昂,因此观测数据稀少。然而,近期越来越多的研究关注将BO应用于函数评估成本较低、观测数据更为丰富的问题。在此场景下,高斯过程(GP)代理模型阻碍了算法向大规模观测数据($N$)的扩展:GP超参数拟合的计算复杂度为$\mathcal{O}(N^3)$(在现代实现中通常降至约$\mathcal{O}(N^2)$),且该过程在每次BO迭代中均需重复执行。尽管许多方法改进了采集阶段的计算效率,但超参数拟合的复杂度依然居高不下,成为性能瓶颈。本文提出认知最近邻(ENN),一种轻量级的GP替代方案,通过$K$最近邻观测数据估计函数值及其不确定性(认知不确定性与偶然不确定性)。ENN在拟合与采集阶段的计算复杂度均为$\mathcal{O}(N)$。我们的BO方法TuRBO-ENN将TuRBO中的GP代理模型替换为ENN,并将其汤普森采样采集函数替换为$\mathrm{UCB} = μ(x) + σ(x)$。针对无噪声问题的特殊情形,我们可通过采用基于$μ(x)$和$σ(x)$的非支配排序替代$\mathrm{UCB}$,完全省略拟合过程。实验表明,在高达50,000次观测的规模下,相较于TuRBO,TuRBO-ENN将提案时间(即拟合时间与采集时间之和)降低了一至两个数量级。

0
下载
关闭预览

相关内容

【CMU博士论文】黑盒和多目标优化策略,151页pdf
专知会员服务
53+阅读 · 2022年11月24日
最新《高斯过程回归简明教程》,19页pdf
专知会员服务
73+阅读 · 2020年9月30日
【干货书】贝叶斯推断随机过程,449页pdf
专知
31+阅读 · 2020年8月27日
使用 Keras Tuner 调节超参数
TensorFlow
15+阅读 · 2020年2月6日
深入理解BERT Transformer ,不仅仅是注意力机制
大数据文摘
22+阅读 · 2019年3月19日
解读 | 得见的高斯过程
机器学习算法与Python学习
14+阅读 · 2019年2月13日
【深度】让DL可解释?这一份66页贝叶斯深度学习教程告诉你
GAN生成式对抗网络
15+阅读 · 2018年8月11日
一次 PyTorch 的踩坑经历,以及如何避免梯度成为NaN
国家自然科学基金
16+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
14+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
23+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
Arxiv
0+阅读 · 2月12日
VIP会员
最新内容
以色列军事技术如何持续影响美军战力
专知会员服务
0+阅读 · 12分钟前
《深度强化学习在兵棋推演中的应用》40页报告
专知会员服务
5+阅读 · 今天5:37
《多域作战面临复杂现实》
专知会员服务
4+阅读 · 今天5:35
《印度的多域作战:条令与能力发展》报告
专知会员服务
2+阅读 · 今天5:24
人工智能赋能无人机:俄乌战争(万字长文)
专知会员服务
6+阅读 · 4月23日
国外海军作战管理系统与作战训练系统
专知会员服务
3+阅读 · 4月23日
相关资讯
【干货书】贝叶斯推断随机过程,449页pdf
专知
31+阅读 · 2020年8月27日
使用 Keras Tuner 调节超参数
TensorFlow
15+阅读 · 2020年2月6日
深入理解BERT Transformer ,不仅仅是注意力机制
大数据文摘
22+阅读 · 2019年3月19日
解读 | 得见的高斯过程
机器学习算法与Python学习
14+阅读 · 2019年2月13日
【深度】让DL可解释?这一份66页贝叶斯深度学习教程告诉你
GAN生成式对抗网络
15+阅读 · 2018年8月11日
一次 PyTorch 的踩坑经历,以及如何避免梯度成为NaN
相关基金
国家自然科学基金
16+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
14+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
23+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员