Expanding Deep Learning applications toward edge computing demands architectures capable of delivering high computational performance and efficiency while adhering to tight power and memory constraints. Digital In-Memory Computing (DIMC) addresses this need by moving part of the computation directly within memory arrays, significantly reducing data movement and improving energy efficiency. This paper introduces a novel architecture that extends the Vector RISC-V Instruction Set Architecture (ISA) to integrate a tightly coupled DIMC unit directly into the execution stage of the pipeline, to accelerate Deep Learning inference at the edge. Specifically, the proposed approach adds four custom instructions dedicated to data loading, computation, and write-back, enabling flexible and optimal control of the inference execution on the target architecture. Experimental results demonstrate high utilization of the DIMC tile in Vector RISC-V and sustained throughput across the ResNet-50 model, achieving a peak performance of 137 GOP/s. The proposed architecture achieves a speedup of 217x over the baseline core and 50x area-normalized speedup even when operating near the hardware resource limits. The experimental results confirm the high potential of the proposed architecture as a scalable and efficient solution to accelerate Deep Learning inference on the edge.


翻译:深度学习应用向边缘计算的扩展需要能够提供高计算性能和效率的架构,同时满足严格的功耗和内存限制。数字内存计算(DIMC)通过将部分计算直接移至内存阵列内部来应对这一需求,显著减少了数据移动并提高了能效。本文介绍了一种新颖的架构,该架构扩展了向量RISC-V指令集架构(ISA),将紧密耦合的DIMC单元直接集成到流水线的执行阶段,以加速边缘端的深度学习推理。具体而言,所提出的方法增加了四条专用于数据加载、计算和写回的自定义指令,从而能够在目标架构上灵活且最优地控制推理执行。实验结果表明,在向量RISC-V中DIMC计算单元得到了高效利用,并在ResNet-50模型上实现了持续的吞吐量,峰值性能达到137 GOP/s。所提出的架构相较于基准核心实现了217倍的加速,即使在接近硬件资源极限的情况下运行,也实现了50倍面积归一化加速。实验结果证实了所提出架构作为加速边缘端深度学习推理的可扩展高效解决方案的巨大潜力。

0
下载
关闭预览

相关内容

《面向边缘AI应用的高性能高能效架构探索》156页
专知会员服务
34+阅读 · 2025年4月12日
【CVPR2022】语言引导与基于视觉的深度度量学习的集成
专知会员服务
17+阅读 · 2022年3月17日
专知会员服务
16+阅读 · 2021年7月7日
专知会员服务
29+阅读 · 2021年2月26日
【边缘智能】边缘计算驱动的深度学习加速技术
产业智能官
20+阅读 · 2019年2月8日
SFFAI报告 | 常建龙 :深度卷积网络中的卷积算子研究进展
人工智能前沿讲习班
11+阅读 · 2018年10月22日
如何设计基于深度学习的图像压缩算法
论智
41+阅读 · 2018年4月26日
【干货】​深度学习中的线性代数
专知
21+阅读 · 2018年3月30日
【干货】理解深度学习中的矩阵运算
机器学习研究会
18+阅读 · 2018年2月12日
深度学习的GPU:深度学习中使用GPU的经验和建议
数据挖掘入门与实战
11+阅读 · 2018年1月3日
边缘计算:万物互联时代新型计算模型
计算机研究与发展
15+阅读 · 2017年5月19日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关资讯
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员