A body of work has been done to automate machine learning algorithm to highlight the importance of model choice. Automating the process of choosing the best forecasting model and its corresponding parameters can result to improve a wide range of real-world applications. Bayesian optimisation (BO) uses a blackbox optimisation methods to propose solutions according to an exploration-exploitation trade-off criterion through acquisition functions. BO framework imposes two key ingredients: a probabilistic surrogate model that consist of prior belief of the unknown objective function(data-dependant) and an objective function that describes how optimal is the model-fit. Choosing the best model and its associated hyperparameters can be very expensive, and is typically fit using Gaussian processes (GPs) and at some extends applying approximate inference due its intractability. However, since GPs scale cubically with the number of observations, it has been challenging to handle objectives whose optimization requires many evaluations. In addition, most real-dataset are non-stationary which make idealistic assumptions on surrogate models. The necessity to solve the analytical tractability and the computational feasibility in a stochastic fashion enables to ensure the efficiency and the applicability of Bayesian optimisation. In this paper we explore the use of neural networks as an alternative to GPs to model distributions over functions, we provide a link between density-ratio estimation and class probability estimation based on approximate inference, this reformulation provides algorithm efficiency and tractability.


翻译:已经做了大量工作,将机器学习算法自动化,以突出模型选择的重要性。 自动选择最佳预测模型及其相应参数的过程可以导致改进一系列广泛的真实世界应用。 巴伊西亚优化(BO)使用黑盒优化方法,根据勘探-开发交易标准,通过获取功能提出解决方案。 BO框架规定了两个关键要素: 概率替代模型,它包括先前对未知目标功能(数据依赖性)的信念,以及描述模型适合程度的客观功能(数据依赖性)的客观功能。 选择最佳模型及其相关超参数的过程可能非常昂贵,而且通常适合使用高山流程(GP),有些则由于其易受吸引性而扩大应用近似推推推法。 但是,由于GPS的比重与观察数量不相仿,因此很难处理其优化需要许多评价的目标。 此外,大多数真实数据集不是固定的,对模型进行理想化的假设。 有必要解决分析性可变性及其相关的超标值模型的可选性, 从而使得分析性可选性、可选性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性能、可选择性、可使可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、可选择性、

0
下载
关闭预览

相关内容

Automator是苹果公司为他们的Mac OS X系统开发的一款软件。 只要通过点击拖拽鼠标等操作就可以将一系列动作组合成一个工作流,从而帮助你自动的(可重复的)完成一些复杂的工作。Automator还能横跨很多不同种类的程序,包括:查找器、Safari网络浏览器、iCal、地址簿或者其他的一些程序。它还能和一些第三方的程序一起工作,如微软的Office、Adobe公司的Photoshop或者Pixelmator等。
专知会员服务
29+阅读 · 2021年8月2日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
82+阅读 · 2020年7月26日
因果图,Causal Graphs,52页ppt
专知会员服务
253+阅读 · 2020年4月19日
已删除
将门创投
4+阅读 · 2020年6月12日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
自然语言处理(二)机器翻译 篇 (NLP: machine translation)
DeepLearning中文论坛
12+阅读 · 2015年7月1日
Arxiv
0+阅读 · 2021年10月18日
Arxiv
0+阅读 · 2021年10月18日
Bayesian Attention Belief Networks
Arxiv
9+阅读 · 2021年6月9日
VIP会员
最新内容
《美陆军条例:陆军指挥政策(2026版)》
专知会员服务
10+阅读 · 4月21日
《军用自主人工智能系统的治理与安全》
专知会员服务
7+阅读 · 4月21日
《系统簇式多域作战规划范畴论框架》
专知会员服务
10+阅读 · 4月20日
高效视频扩散模型:进展与挑战
专知会员服务
5+阅读 · 4月20日
乌克兰前线的五项创新
专知会员服务
8+阅读 · 4月20日
 军事通信系统与设备的技术演进综述
专知会员服务
8+阅读 · 4月20日
《北约标准:医疗评估手册》174页
专知会员服务
6+阅读 · 4月20日
相关资讯
已删除
将门创投
4+阅读 · 2020年6月12日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
自然语言处理(二)机器翻译 篇 (NLP: machine translation)
DeepLearning中文论坛
12+阅读 · 2015年7月1日
Top
微信扫码咨询专知VIP会员