Choosing a suitable ML model is a complex task that can depend on several objectives, e.g., accuracy, model size, fairness, inference time, or energy consumption. In practice, this requires trading off multiple, often competing, objectives through multi-objective optimization (MOO). However, existing MOO methods typically treat all hyperparameters as equally important, overlooking that hyperparameter importance (HPI) can vary significantly depending on the trade-off between objectives. We propose a novel dynamic optimization approach that prioritizes the most influential hyperparameters based on varying objective trade-offs during the search process, which accelerates empirical convergence and leads to better solutions. Building on prior work on HPI for MOO post-analysis, we now integrate HPI, calculated with HyperSHAP, into the optimization. For this, we leverage the objective weightings naturally produced by the MOO algorithm ParEGO and adapt the configuration space by fixing the unimportant hyperparameters, allowing the search to focus on the important ones. Eventually, we validate our method with diverse tasks from PyMOO and YAHPO-Gym. Empirical results demonstrate improvements in convergence speed and Pareto front quality compared to baselines.


翻译:选择合适的机器学习模型是一项复杂的任务,通常涉及多个目标间的权衡,例如准确率、模型大小、公平性、推理时间或能耗。实践中,这需要通过多目标优化(MOO)来权衡多个常常相互冲突的目标。然而,现有的MOO方法通常将所有超参数视为同等重要,忽略了超参数重要性(HPI)可能随着目标间权衡关系的不同而发生显著变化。本文提出一种新颖的动态优化方法,该方法在搜索过程中根据变化的目标权衡关系,优先处理最具影响力的超参数,从而加速经验收敛并获得更优解。基于先前关于MOO后分析中HPI的研究,我们将通过HyperSHAP计算的HPI直接整合到优化过程中。为此,我们利用ParEGO算法自然生成的目标权重,通过固定不重要超参数来调整配置空间,使搜索聚焦于重要超参数。最后,我们在PyMOO和YAHPO-Gym的多样化任务上验证了所提方法。实证结果表明,相较于基线方法,本方法在收敛速度和帕累托前沿质量方面均有显著提升。

0
下载
关闭预览

相关内容

在贝叶斯统计中,超参数是先验分布的参数; 该术语用于将它们与所分析的基础系统的模型参数区分开。
【IJCAI2025教程】基于梯度的多目标深度学习,221页ppt
专知会员服务
24+阅读 · 2025年8月31日
《机器学习超参数优化》最新综述
专知会员服务
39+阅读 · 2024年10月31日
【2021新书】机器学习超参数优化,177页pdf
专知会员服务
163+阅读 · 2021年5月18日
浅谈主动学习(Active Learning)
凡人机器学习
32+阅读 · 2020年6月18日
多因素问题分析时,如何确立各因素权重?
人人都是产品经理
75+阅读 · 2020年3月4日
使用 Keras Tuner 调节超参数
TensorFlow
15+阅读 · 2020年2月6日
深度学习中Attention Mechanism详细介绍:原理、分类及应用
深度学习与NLP
10+阅读 · 2019年2月18日
深度学习超参数搜索实用指南
云栖社区
28+阅读 · 2018年10月14日
推荐|机器学习中的模型评价、模型选择和算法选择!
全球人工智能
10+阅读 · 2018年2月5日
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
14+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
相关VIP内容
【IJCAI2025教程】基于梯度的多目标深度学习,221页ppt
专知会员服务
24+阅读 · 2025年8月31日
《机器学习超参数优化》最新综述
专知会员服务
39+阅读 · 2024年10月31日
【2021新书】机器学习超参数优化,177页pdf
专知会员服务
163+阅读 · 2021年5月18日
相关基金
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
14+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员