Neural networks (NNs) often have critical behavioural trade-offs that are set at design time with hyperparameters-such as reward weights in reinforcement learning or quantile targets in regression. Post-deployment, however, user preferences can evolve, making initial settings undesirable, necessitating potentially expensive retraining. To circumvent this, we introduce the task of Hyperparameter Trajectory Inference (HTI): to learn, from observed data, how a NN's conditional output distribution changes with its hyperparameters, and construct a surrogate model that approximates the NN at unobserved hyperparameter settings. HTI requires extending existing trajectory inference approaches to incorporate conditions, exacerbating the challenge of ensuring inferred paths are feasible. We propose an approach based on conditional Lagrangian optimal transport, jointly learning the Lagrangian function governing hyperparameter-induced dynamics along with the associated optimal transport maps and geodesics between observed marginals, which form the surrogate model. We incorporate inductive biases based on the manifold hypothesis and least-action principles into the learned Lagrangian, improving surrogate model feasibility. We empirically demonstrate that our approach reconstructs NN outputs across various hyperparameter spectra better than other alternatives.


翻译:神经网络(NNs)在设计时通常通过超参数设定关键的行为权衡——例如强化学习中的奖励权重或回归中的分位数目标。然而,部署后用户偏好可能发生变化,使得初始设定不再理想,从而可能需要代价高昂的重新训练。为避免此问题,我们引入了超参数轨迹推断(HTI)任务:从观测数据中学习神经网络的**条件输出分布**如何随其超参数变化,并构建一个在未观测超参数设定下近似该神经网络的**代理模型**。HTI要求将现有轨迹推断方法扩展至包含条件的情形,这加剧了确保推断路径可行的挑战。我们提出了一种基于**条件拉格朗日最优传输**的方法,该方法联合学习支配超参数诱导动力学的拉格朗日函数,以及观测边缘分布之间的关联最优传输映射与测地线,这些共同构成了代理模型。我们将基于流形假设和最小作用量原理的归纳偏置融入所学拉格朗日函数中,从而提升了代理模型的可行性。我们通过实验证明,我们的方法在多种超参数谱下重建神经网络输出的效果优于其他替代方案。

0
下载
关闭预览

相关内容

在贝叶斯统计中,超参数是先验分布的参数; 该术语用于将它们与所分析的基础系统的模型参数区分开。
《机器学习超参数优化》最新综述
专知会员服务
39+阅读 · 2024年10月31日
【伯克利博士论文】硬件感知的高效深度学习,154页pdf
专知会员服务
75+阅读 · 2022年10月20日
【清华大学】图神经网络交通流预测综述论文,19页pdf
专知会员服务
50+阅读 · 2021年1月29日
基于图神经网络的推荐算法总结
机器学习与推荐算法
25+阅读 · 2021年9月30日
使用 Keras Tuner 调节超参数
TensorFlow
15+阅读 · 2020年2月6日
如何找到最优学习率?
AI研习社
11+阅读 · 2017年11月29日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2月19日
VIP会员
最新内容
《第四代军事特种作战部队选拔与评估》
专知会员服务
1+阅读 · 今天6:23
不对称优势上升:自主系统如何强化海上拒止
专知会员服务
1+阅读 · 今天5:51
《人工智能赋能电磁战》(报告)
专知会员服务
2+阅读 · 4月17日
【CMU博士论文】迈向可扩展的开放世界三维感知
相关基金
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员