只包含加法操作的加法神经网络 (ANN)为开发低能耗的深层神经网络提供了一种新的途径。但是,当用加法滤波器替换原始的卷积滤波器时会带来精度下降。其主要原因是采用L1-范数进行神经网络优化比较困难。在这种情况下,反向传播的梯度通常会估计不准确。本文提出一种在不增加可训练参数的前提下,通过基于核的渐进式知识蒸馏(PKKD)方法进一步提高ANN的性能。我们将与ANN具有相同结构的卷积神经网络(CNN)进行随机初始化并作为教师网络,将ANN和CNN的特征和权重通过核变换映射到一个新的空间,减少了分布之间的差异,从而消除了精度下降问题。最后,ANN通过渐进的方法同时学习标签和教师网络的知识。该方法在几个标准数据集上得到了很好的验证,从而有效地学习了具有较高性能的ANN。例如,使用所提出的PKKD方法训练的ANN-50在ImageNet数据集上获得76.8%的精度,比相同结构的ResNet-50高0.6%。

https://www.zhuanzhi.ai/paper/3cb74130e9cf983a7247e0d4a0d6bbce

成为VIP会员查看完整内容
18

相关内容

专知会员服务
29+阅读 · 2020年10月24日
专知会员服务
74+阅读 · 2020年5月21日
【学界】协作式生成对抗网络
GAN生成式对抗网络
8+阅读 · 2018年6月29日
深度图像先验:无需学习即可生成新图像
论智
45+阅读 · 2017年12月4日
神经网络bp算法推导
统计学习与视觉计算组
11+阅读 · 2017年11月17日
已删除
Arxiv
33+阅读 · 2020年3月23日
VIP会员
相关VIP内容
专知会员服务
29+阅读 · 2020年10月24日
专知会员服务
74+阅读 · 2020年5月21日
相关资讯
【学界】协作式生成对抗网络
GAN生成式对抗网络
8+阅读 · 2018年6月29日
深度图像先验:无需学习即可生成新图像
论智
45+阅读 · 2017年12月4日
神经网络bp算法推导
统计学习与视觉计算组
11+阅读 · 2017年11月17日
相关论文
已删除
Arxiv
33+阅读 · 2020年3月23日
微信扫码咨询专知VIP会员