Heatmap-based solvers have emerged as a promising paradigm for Combinatorial Optimization (CO). However, we argue that the dominant Supervised Learning (SL) training paradigm suffers from a fundamental objective mismatch: minimizing imitation loss (e.g., cross-entropy) does not guarantee solution cost minimization. We dissect this mismatch into two deficiencies: Decoder-Blindness (being oblivious to the non-differentiable decoding process) and Cost-Blindness (prioritizing structural imitation over solution quality). We empirically demonstrate that these intrinsic flaws impose a hard performance ceiling. To overcome this limitation, we propose CADO (Cost-Aware Diffusion models for Optimization), a streamlined Reinforcement Learning fine-tuning framework that formulates the diffusion denoising process as an MDP to directly optimize the post-decoded solution cost. We introduce Label-Centered Reward, which repurposes ground-truth labels as unbiased baselines rather than imitation targets, and Hybrid Fine-Tuning for parameter-efficient adaptation. CADO achieves state-of-the-art performance across diverse benchmarks, validating that objective alignment is essential for unlocking the full potential of heatmap-based solvers.


翻译:基于热图的求解器已成为组合优化领域一种前景广阔的研究范式。然而,我们认为当前主流的监督学习训练范式存在根本性的目标失配问题:最小化模仿损失(如交叉熵)并不能保证解的成本最小化。我们将这种失配解构为两个缺陷:解码器盲视(忽略不可微的解码过程)与成本盲视(优先考虑结构模仿而非解的质量)。我们通过实验证明,这些固有缺陷会形成严格的性能上限。为突破此限制,我们提出CADO(面向优化的成本感知扩散模型),这是一个简化的强化学习微调框架,它将扩散去噪过程建模为马尔可夫决策过程,以直接优化解码后解的成本。我们提出了以标签为中心的奖励机制,将真实标签重新用作无偏基线而非模仿目标,并采用混合微调策略实现参数高效适配。CADO在多个基准测试中均达到最先进的性能,验证了目标对齐对于释放基于热图的求解器全部潜力的关键作用。

0
下载
关闭预览

相关内容

《图强化学习在组合优化中的应用》综述
专知会员服务
60+阅读 · 2024年4月10日
深度学习组合优化,30页ppt,阿姆斯特丹Wouter Kool讲授
专知会员服务
27+阅读 · 2021年2月27日
机器学习组合优化
专知会员服务
110+阅读 · 2021年2月16日
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
75+阅读 · 2020年4月24日
【Google-CMU】元伪标签的元学习,Meta Pseudo Labels
专知会员服务
32+阅读 · 2020年3月30日
最新《图嵌入组合优化》综述论文,40页pdf
AmpliGraph:知识图谱表示学习工具包
专知
40+阅读 · 2019年4月6日
机器学习中的最优化算法总结
人工智能前沿讲习班
22+阅读 · 2019年3月22日
深度文本匹配开源工具(MatchZoo)
机器学习研究会
10+阅读 · 2017年12月5日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员