Large language models (LLMs) have shown promising capabilities in hardware description language (HDL) generation. However, existing approaches often rely on free-form natural language descriptions that are often ambiguous, redundant, and unstructured, which poses significant challenges for downstream Verilog code generation. We treat hardware code generation as a complex transformation from an open-ended natural language space to a domain-specific, highly constrained target space. To bridge this gap, we introduce Core Refined Understanding eXpression (CRUX), a structured intermediate space that captures the essential semantics of user intent while organizing the expression for precise Verilog code generation. We further design a two-stage training framework, comprising Joint Expression Modeling and Dual-Space Optimization, to enhance the quality of both CRUX and Verilog code. Experiments across multiple Verilog generation benchmarks demonstrate that our model, CRUX-V, achieves state-of-the-art performance among general models, particularly under challenging design tasks. Furthermore, the CRUX space proves transferable and beneficial when used as input prompts for other code models, highlighting its effectiveness in narrowing the gap between free-form natural language descriptions and precise Verilog generation.


翻译:大语言模型(LLMs)在硬件描述语言(HDL)生成方面展现出有前景的能力。然而,现有方法通常依赖于自由形式的自然语言描述,这些描述往往存在歧义、冗余且缺乏结构,这给下游Verilog代码生成带来了重大挑战。我们将硬件代码生成视为从开放的自然语言空间到领域特定、高度受限的目标空间的复杂转换。为了弥合这一鸿沟,我们引入了核心精炼理解表达(CRUX),这是一个结构化的中间空间,它既能捕捉用户意图的本质语义,又能组织表达以生成精确的Verilog代码。我们进一步设计了一个两阶段训练框架,包含联合表达建模和双空间优化,以提升CRUX和Verilog代码的质量。在多个Verilog生成基准测试上的实验表明,我们的模型CRUX-V在通用模型中实现了最先进的性能,尤其是在具有挑战性的设计任务下。此外,CRUX空间被证明具有可迁移性,当用作其他代码模型的输入提示时能带来益处,这突显了其在缩小自由形式自然语言描述与精确Verilog生成之间差距方面的有效性。

0
下载
关闭预览

相关内容

代码(Code)是专知网的一个重要知识资料文档板块,旨在整理收录论文源代码、复现代码,经典工程代码等,便于用户查阅下载使用。
大模型如何迭代?北大等《大型语言模型自我进化》综述
《大型语言模型自然语言生成评估》综述
专知会员服务
72+阅读 · 2024年1月20日
自然语言生成资源列表
专知
17+阅读 · 2020年1月4日
自然语言处理精品资料
人工智能前沿讲习班
14+阅读 · 2019年3月13日
语料库构建——自然语言理解的基础
计算机研究与发展
11+阅读 · 2017年8月21日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
最新内容
Palantir AIP平台:连接智能体与决策
专知会员服务
4+阅读 · 今天1:22
《美海军软件测试战略》90页slides
专知会员服务
6+阅读 · 今天1:00
面向具身智能与机器人仿真的三维生成:综述
专知会员服务
6+阅读 · 4月30日
相关VIP内容
大模型如何迭代?北大等《大型语言模型自我进化》综述
《大型语言模型自然语言生成评估》综述
专知会员服务
72+阅读 · 2024年1月20日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员