RTL simulation on CPUs remains a persistent bottleneck in hardware design. State-of-the-art simulators embed the circuit directly into the simulation binary, resulting in long compilation times and execution that is fundamentally CPU frontend-bound, with severe instruction-cache pressure. This work proposes RTeAAL Sim, which reformulates RTL simulation as a sparse tensor algebra problem. By representing RTL circuits as tensors and simulation as a sparse tensor algebra kernel, RTeAAL Sim decouples simulation behavior from binary size and makes RTL simulation amenable to well-studied tensor algebra optimizations. We demonstrate that a prototype of our tensor-based simulator, even with a subset of these optimizations, already mitigates the compilation overhead and frontend pressure and achieves performance competitive with the highly optimized Verilator simulator across multiple CPUs and ISAs.


翻译:在硬件设计中,基于CPU的RTL仿真仍然是一个长期存在的瓶颈。最先进的仿真器将电路直接嵌入仿真二进制文件中,导致编译时间漫长,且其执行从根本上受限于CPU前端,并承受严重的指令缓存压力。本文提出RTeAAL Sim,它将RTL仿真重新表述为一个稀疏张量代数问题。通过将RTL电路表示为张量,并将仿真视为稀疏张量代数内核,RTeAAL Sim将仿真行为与二进制文件大小解耦,并使RTL仿真能够应用经过深入研究的张量代数优化技术。我们证明,即使仅应用了这些优化技术的一个子集,我们基于张量的仿真器原型已经能够缓解编译开销和前端压力,并在多种CPU和ISA上实现了与高度优化的Verilator仿真器相竞争的性能。

0
下载
关闭预览

相关内容

模型压缩究竟在做什么?我们真的需要模型压缩么?
专知会员服务
28+阅读 · 2020年1月16日
专知会员服务
13+阅读 · 2019年11月23日
聊聊RTA(Realtime API)
AINLP
29+阅读 · 2020年6月5日
【仿真+AI】浅谈AI在CAE领域的应用
产业智能官
13+阅读 · 2019年12月7日
CALDERA 一款对手自动模拟工具
黑白之道
20+阅读 · 2019年9月17日
深度学习时代的图模型,清华发文综述图网络
GAN生成式对抗网络
13+阅读 · 2018年12月23日
超全总结:神经网络加速之量化模型 | 附带代码
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关VIP内容
模型压缩究竟在做什么?我们真的需要模型压缩么?
专知会员服务
28+阅读 · 2020年1月16日
专知会员服务
13+阅读 · 2019年11月23日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员