We consider the problem of synthesizing programs with numerical constants that optimize a quantitative objective, such as accuracy, over a set of input-output examples. We propose a general framework for optimal synthesis of such programs in a given domain specific language (DSL), with provable optimality guarantees. Our framework enumerates programs in a general search graph, where nodes represent subsets of concrete programs. To improve scalability, it uses A* search in conjunction with a search heuristic based on abstract interpretation; intuitively, this heuristic establishes upper bounds on the value of subtrees in the search graph, enabling the synthesizer to identify and prune subtrees that are provably suboptimal. In addition, we propose a natural strategy for constructing abstract transformers for monotonic semantics, which is a common property for components in DSLs for data classification. Finally, we implement our approach in the context of two such existing DSLs, demonstrating that our algorithm is more scalable than existing optimal synthesizers.


翻译:我们研究通过输入-输出示例集合成具有数值常数且优化定量目标(如准确率)的程序问题。我们提出一个通用框架,用于在给定领域特定语言(DSL)中对此类程序进行可证明最优性保证的最优综合。该框架在通用搜索图中枚举程序,其中节点表示具体程序的子集。为提升可扩展性,框架结合基于抽象解释的搜索启发式策略实施A*搜索;直观而言,该启发式策略通过建立搜索图中子树取值的上界,使综合器能够识别并剪枝可证明次优的子树。此外,我们提出一种为单调语义构建抽象转换器的自然策略,该性质在数据分类领域特定语言的组件中普遍存在。最后,我们在两种现有领域特定语言中实现该方法,证明所提算法比现有最优综合器具有更高的可扩展性。

0
下载
关闭预览

相关内容

《可解释深度强化学习综述》
专知会员服务
40+阅读 · 2025年2月12日
《图强化学习在组合优化中的应用》综述
专知会员服务
60+阅读 · 2024年4月10日
清华最新《解耦表征学习》综述
专知会员服务
71+阅读 · 2023年2月23日
专知会员服务
62+阅读 · 2021年6月1日
最新《图嵌入组合优化》综述论文,40页pdf
专知会员服务
78+阅读 · 2020年8月31日
「强化学习可解释性」最新2022综述
专知
12+阅读 · 2022年1月16日
最新《图嵌入组合优化》综述论文,40页pdf
【强化学习】强化学习+深度学习=人工智能
产业智能官
55+阅读 · 2017年8月11日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Arxiv
0+阅读 · 1月13日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员