Surrogate-assisted Evolutionary Algorithms~(SAEAs) have shown promising robustness in solving expensive optimization problems. A key aspect that impacts SAEAs' effectiveness is surrogate model selection, which in existing works is predominantly decided by human developer. Such human-made design choice introduces strong bias into SAEAs and may hurt their expected performance on out-of-scope tasks. In this paper, we propose a reinforcement learning-assisted ensemble framework, termed as SEEMOO, which is capable of scheduling different surrogate models within a single optimization process, hence boosting the overall optimization performance in a cooperative paradigm. Specifically, we focus on expensive multi-objective optimization problems, where multiple objective functions shape a compositional landscape and hence challenge surrogate selection. SEEMOO comprises following core designs: 1) A pre-collected model pool that maintains different surrogate models; 2) An attention-based state-extractor supports universal optimization state representation of problems with varied objective numbers; 3) a deep Q-network serves as dynamic surrogate selector: Given the optimization state, it selects desired surrogate model for current-step evaluation. SEEMOO is trained to maximize the overall optimization performance under a training problem distribution. Extensive benchmark results demonstrate SEEMOO's surrogate ensemble paradigm boosts the optimization performance of single-surrogate baselines. Further ablation studies underscore the importance of SEEMOO's design components.


翻译:代理辅助进化算法在求解昂贵优化问题中展现出良好的鲁棒性。影响算法效能的关键因素是代理模型选择,现有研究主要依赖开发者人工决策。这种人为设计选择会给算法引入强烈偏差,并可能损害其在超范围任务上的预期性能。本文提出一种强化学习辅助的集成框架SEEMOO,能够在单一优化过程中调度不同的代理模型,从而以协同范式提升整体优化性能。具体而言,我们聚焦于昂贵多目标优化问题,其中多个目标函数构成复合型解空间形态,从而对代理选择形成挑战。SEEMOO包含以下核心设计:1)预构建的模型池维护多种代理模型;2)基于注意力机制的状态提取器支持不同目标数问题的通用优化状态表征;3)深度Q网络作为动态代理选择器:根据优化状态为当前步评估选择所需代理模型。SEEMOO通过训练问题分布进行训练以最大化整体优化性能。大量基准测试结果表明SEEMOO的代理集成范式显著提升了单代理基线的优化性能。进一步的消融研究验证了SEEMOO各设计组件的重要性。

0
下载
关闭预览

相关内容

有监督深度学习的优化方法研究综述
专知会员服务
40+阅读 · 2023年5月15日
结合进化算法的深度强化学习方法研究综述
专知会员服务
81+阅读 · 2022年7月16日
深度学习组合优化,30页ppt,阿姆斯特丹Wouter Kool讲授
专知会员服务
27+阅读 · 2021年2月27日
【综述】多智能体强化学习算法理论研究
深度强化学习实验室
15+阅读 · 2020年9月9日
17种深度强化学习算法用Pytorch实现
新智元
31+阅读 · 2019年9月16日
机器学习中的最优化算法总结
人工智能前沿讲习班
22+阅读 · 2019年3月22日
PyTorch实现多种深度强化学习算法
专知
36+阅读 · 2019年1月15日
入门 | 通过 Q-learning 深入理解强化学习
机器之心
12+阅读 · 2018年4月17日
深度学习时代的目标检测算法
炼数成金订阅号
40+阅读 · 2018年3月19日
【强化学习】强化学习+深度学习=人工智能
产业智能官
55+阅读 · 2017年8月11日
从浅层模型到深度模型:概览机器学习优化算法
机器之心
27+阅读 · 2017年7月9日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关资讯
【综述】多智能体强化学习算法理论研究
深度强化学习实验室
15+阅读 · 2020年9月9日
17种深度强化学习算法用Pytorch实现
新智元
31+阅读 · 2019年9月16日
机器学习中的最优化算法总结
人工智能前沿讲习班
22+阅读 · 2019年3月22日
PyTorch实现多种深度强化学习算法
专知
36+阅读 · 2019年1月15日
入门 | 通过 Q-learning 深入理解强化学习
机器之心
12+阅读 · 2018年4月17日
深度学习时代的目标检测算法
炼数成金订阅号
40+阅读 · 2018年3月19日
【强化学习】强化学习+深度学习=人工智能
产业智能官
55+阅读 · 2017年8月11日
从浅层模型到深度模型:概览机器学习优化算法
机器之心
27+阅读 · 2017年7月9日
相关基金
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员