Bayesian optimization (BO) struggles in high dimensions, where Gaussian-process surrogates demand heavy retraining and brittle assumptions, slowing progress on real engineering and design problems. We introduce GIT-BO, a Gradient-Informed BO framework that couples TabPFN v2, a tabular foundation model that performs zero-shot Bayesian inference in context, with an active-subspace mechanism computed from the model's own predictive-mean gradients. This aligns exploration to an intrinsic low-dimensional subspace via a Fisher-information estimate and selects queries with a UCB acquisition, requiring no online retraining. Across 60 problem variants spanning 20 benchmarks-nine scalable synthetic families and ten real-world tasks (e.g., power systems, Rover, MOPTA08, Mazda)-up to 500 dimensions, GIT-BO delivers a stronger performance-time trade-off than state-of-the-art GP-based methods (SAASBO, TuRBO, Vanilla BO, BAxUS), ranking highest in performance and with runtime advantages that grow with dimensionality. Limitations include memory footprint and dependence on the capacity of the underlying TFM.


翻译:贝叶斯优化(BO)在高维场景中面临挑战,其中高斯过程代理模型需要繁重的重新训练和脆弱的假设,这阻碍了其在真实工程与设计问题上的进展。我们提出了GIT-BO,一种梯度引导的贝叶斯优化框架,它将TabPFN v2(一种能在上下文中执行零样本贝叶斯推理的表格基础模型)与一个基于模型自身预测均值梯度计算得到的主动子空间机制相结合。该框架通过费舍尔信息估计将探索过程对齐到一个固有的低维子空间,并使用上置信界(UCB)采集函数选择查询点,无需在线重新训练。在涵盖20个基准测试(包括九个可扩展的合成问题族和十个真实世界任务,如电力系统、Rover、MOPTA08、Mazda)的60个问题变体上,维度高达500维,GIT-BO相比最先进的基于高斯过程的方法(SAASBO、TuRBO、Vanilla BO、BAxUS)提供了更优的性能-时间权衡,在性能上排名最高,且其运行时优势随维度增加而增长。局限性包括内存占用较大以及对底层表格基础模型(TFM)能力的依赖。

0
下载
关闭预览

相关内容

【牛津大学】贝叶斯优化用于自动化机器学习,321页pdf
专知会员服务
31+阅读 · 2024年5月17日
【2023新书】贝叶斯优化实战,426页pdf
专知会员服务
90+阅读 · 2023年12月20日
【2023新书】贝叶斯优化:使用Python的理论和实践,243页pdf
【ETH博士论文】贝叶斯深度学习,241页pdf
专知
10+阅读 · 2022年1月16日
【GitHub】BERT模型从训练到部署全流程
专知
34+阅读 · 2019年6月28日
贝叶斯机器学习前沿进展
机器学习研究会
21+阅读 · 2018年1月21日
国家自然科学基金
16+阅读 · 2017年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
Arxiv
0+阅读 · 3月9日
VIP会员
相关基金
国家自然科学基金
16+阅读 · 2017年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员