Modern CNNs' high computational demands hinder edge deployment, as traditional ``hard'' sparsity (skipping mathematical zeros) loses effectiveness in deep layers or with smooth activations like Tanh. We propose a ``soft sparsity'' paradigm using a hardware efficient Most Significant Bit (MSB) proxy to skip negligible non-zero multiplications. Integrated as a custom RISC-V instruction and evaluated on LeNet-5 (MNIST), this method reduces ReLU MACs by 88.42% and Tanh MACs by 74.87% with zero accuracy loss--outperforming zero-skipping by 5x. By clock-gating inactive multipliers, we estimate power savings of 35.2% for ReLU and 29.96% for Tanh. While memory access makes power reduction sub-linear to operation savings, this approach significantly optimizes resource-constrained inference.


翻译:现代卷积神经网络(CNN)的高计算需求阻碍了其在边缘设备上的部署,因为传统的“硬稀疏性”(跳过数学零值)在深层网络或使用Tanh等平滑激活函数时效果不佳。本文提出一种“软稀疏性”范式,利用硬件高效的“最高有效位(MSB)代理”跳过可忽略的非零乘法运算。该方法集成于自定义RISC-V指令中,在LeNet-5(MNIST)上的评估结果表明:ReLU激活函数的乘累加(MAC)运算量减少88.42%,Tanh激活函数减少74.87%,且精度零损失——性能较零值跳过方法提升5倍。通过时钟门控非活跃乘法器,我们估计ReLU和Tanh的功耗分别降低35.2%和29.96%。尽管内存访问使功耗降低幅度呈亚线性关系于运算节省量,但该方法显著优化了资源受限场景下的推理过程。

0
下载
关闭预览

相关内容

专知会员服务
23+阅读 · 2021年7月15日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
39+阅读 · 2020年2月21日
太值得收藏了!秒懂各种深度CNN操作
机器学习算法与Python学习
11+阅读 · 2019年3月18日
直白介绍卷积神经网络(CNN)
算法与数学之美
13+阅读 · 2019年1月23日
CNN五大经典模型:LeNet,AlexNet,GoogleNet,VGG,DRL
黑龙江大学自然语言处理实验室
14+阅读 · 2018年9月7日
误差反向传播——CNN
统计学习与视觉计算组
31+阅读 · 2018年7月12日
基于注意力机制的图卷积网络
科技创新与创业
74+阅读 · 2017年11月8日
【深度】Deep Visualization:可视化并理解CNN
专知
12+阅读 · 2017年9月30日
CNN 模型压缩与加速算法综述
机器学习研究会
16+阅读 · 2017年8月25日
CNN、RNN在自动特征提取中的应用
乌镇智库
14+阅读 · 2017年8月4日
卷积神经网络(CNN)学习笔记1:基础入门
黑龙江大学自然语言处理实验室
14+阅读 · 2016年6月16日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
0+阅读 · 3月30日
VIP会员
最新内容
美军“软件工厂”:为作战指挥官赋能数字战场
专知会员服务
14+阅读 · 今天2:03
《面向大规模决策的分布式优化架构》247页
专知会员服务
15+阅读 · 今天1:57
智能体技能综合综述:分类、技术与应用
专知会员服务
18+阅读 · 5月11日
相关VIP内容
专知会员服务
23+阅读 · 2021年7月15日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
39+阅读 · 2020年2月21日
相关资讯
太值得收藏了!秒懂各种深度CNN操作
机器学习算法与Python学习
11+阅读 · 2019年3月18日
直白介绍卷积神经网络(CNN)
算法与数学之美
13+阅读 · 2019年1月23日
CNN五大经典模型:LeNet,AlexNet,GoogleNet,VGG,DRL
黑龙江大学自然语言处理实验室
14+阅读 · 2018年9月7日
误差反向传播——CNN
统计学习与视觉计算组
31+阅读 · 2018年7月12日
基于注意力机制的图卷积网络
科技创新与创业
74+阅读 · 2017年11月8日
【深度】Deep Visualization:可视化并理解CNN
专知
12+阅读 · 2017年9月30日
CNN 模型压缩与加速算法综述
机器学习研究会
16+阅读 · 2017年8月25日
CNN、RNN在自动特征提取中的应用
乌镇智库
14+阅读 · 2017年8月4日
卷积神经网络(CNN)学习笔记1:基础入门
黑龙江大学自然语言处理实验室
14+阅读 · 2016年6月16日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员