The Winner Determination Problem (WDP) in combinatorial auctions is NP-hard, and no existing method reliably predicts which instances will defeat fast greedy heuristics. The ML-for-combinatorial-optimization community has focused on learning to \emph{replace} solvers, yet recent evidence shows that graph neural networks (GNNs) rarely outperform well-tuned classical methods on standard benchmarks. We pursue a different objective: learning to predict \emph{when} a given instance is hard for greedy allocation, enabling instance-dependent algorithm selection. We design a 20-dimensional structural feature vector and train a lightweight MLP hardness classifier that predicts the greedy optimality gap with mean absolute error 0.033, Pearson correlation 0.937, and binary classification accuracy 94.7\% across three random seeds. For instances identified as hard -- those exhibiting ``whale-fish'' trap structure where greedy provably fails -- we deploy a heterogeneous GNN specialist that achieves ${\approx}0\%$ optimality gap on all six adversarial configurations tested (vs.\ 3.75--59.24\% for greedy). A hybrid allocator combining the hardness classifier with GNN and greedy solvers achieves 0.51\% overall gap on mixed distributions. Our honest evaluation on CATS benchmarks confirms that GNNs do not outperform Gurobi (0.45--0.71 vs.\ 0.20 gap), motivating the algorithm selection framing. Learning \emph{when} to deploy expensive solvers is more tractable than learning to replace them.


翻译:组合拍卖中的胜者确定问题(WDP)是NP难问题,现有方法无法可靠预测哪些实例会击败快速贪心启发式算法。组合优化机器学习领域的研究一直聚焦于学习如何替代求解器,但近期证据表明,在图标准基准测试中,图神经网络(GNN)很少能超越经过良好调优的经典方法。我们追求一个不同的目标:学习预测特定实例何时对贪心分配算法构成困难,从而实现实例依赖的算法选择。我们设计了一个20维结构特征向量,并训练了一个轻量级多层感知机难度分类器,该分类器在三个随机种子下预测贪心最优性间隙的平均绝对误差为0.033,皮尔逊相关系数为0.937,二元分类准确率达到94.7%。对于被识别为困难的实例——即那些表现出“鲸鱼-小鱼”陷阱结构(贪心算法可证明会失败)的实例——我们部署了一个异构GNN专家模型,在所有测试的六种对抗性配置上实现了约0%的最优性间隙(相比之下贪心算法的间隙为3.75%–59.24%)。一个结合了难度分类器、GNN和贪心求解器的混合分配器,在混合分布上实现了0.51%的整体间隙。我们在CATS基准测试上的诚实评估证实,GNN并未超越Gurobi(间隙为0.45–0.71对比0.20),这支持了算法选择框架的合理性。学习何时部署昂贵的求解器比学习替代它们更为可行。

0
下载
关闭预览

相关内容

在数学和计算机科学之中,算法(Algorithm)为一个计算的具体步骤,常用于计算、数据处理和自动推理。精确而言,算法是一个表示为有限长列表的有效方法。算法应包含清晰定义的指令用于计算函数。 来自维基百科: 算法
【WWW2025】基于不确定性的图结构学习
专知会员服务
17+阅读 · 2025年2月20日
《图强化学习在组合优化中的应用》综述
专知会员服务
60+阅读 · 2024年4月10日
专知会员服务
62+阅读 · 2021年6月1日
机器学习组合优化
专知会员服务
110+阅读 · 2021年2月16日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
156+阅读 · 2020年5月26日
综述| 当图神经网络遇上强化学习
图与推荐
35+阅读 · 2022年7月1日
基于图神经网络的推荐算法总结
机器学习与推荐算法
25+阅读 · 2021年9月30日
当深度强化学习遇见图神经网络
专知
227+阅读 · 2019年10月21日
【GNN】深度学习之上,图神经网络(GNN )崛起
产业智能官
16+阅读 · 2019年8月15日
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
17+阅读 · 2019年3月28日
VIP会员
相关资讯
相关基金
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员