Deep neural networks have usually to be compressed and accelerated for their usage in low-power, e.g. mobile, devices. Recently, massively-parallel hardware accelerators were developed that offer high throughput and low latency at low power by utilizing in-memory computation. However, to exploit these benefits the computational graph of a neural network has to fit into the in-computation memory of these hardware systems that is usually rather limited in size. In this study, we introduce a class of network models that have a tiny memory footprint in terms of their computational graphs. To this end, the graph is designed to contain loops by iteratively executing a single network building block. Furthermore, the trade-off between accuracy and latency of these so-called iterative neural networks is improved by adding multiple intermediate outputs both during training and inference. We show state-of-the-art results for semantic segmentation on the CamVid and Cityscapes datasets that are especially demanding in terms of computational resources. In ablation studies, the improvement of network training by intermediate network outputs as well as the trade-off between weight sharing over iterations and the network size are investigated.


翻译:深神经网络通常需要压缩和加速,以便用于低功率,例如移动装置。最近,开发了大规模平行硬件加速器,通过使用模拟计算,以低功率提供高输送量和低悬浮;然而,为了利用这些好处,神经网络的计算图必须适应这些硬件系统的计算记忆,而这些硬件系统通常规模相当有限。在本研究中,我们引入了一组网络模型,这些模型的计算图的记忆足迹微乎其微。为此,该图的设计目的是通过迭接执行一个单一网络建筑块来控制循环。此外,这些所谓的迭代神经网络的精确度和延缓度之间的权衡通过在培训和推断期间增加多个中间输出而得到改善。我们展示了CamVid和城市景景数据集的解析分解最新结果,这些结果在计算资源方面特别需要。在计算资源方面,通过相互连接研究,通过中间网络产出改进网络的网络培训,作为贸易量的共享和比例。

0
下载
关闭预览

相关内容

Networking:IFIP International Conferences on Networking。 Explanation:国际网络会议。 Publisher:IFIP。 SIT: http://dblp.uni-trier.de/db/conf/networking/index.html
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
156+阅读 · 2020年5月26日
【阿尔托大学】图神经网络,Graph Neural Networks,附60页ppt
专知会员服务
185+阅读 · 2020年4月26日
因果图,Causal Graphs,52页ppt
专知会员服务
253+阅读 · 2020年4月19日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Legion 一款网络渗透工具
黑白之道
6+阅读 · 2019年6月21日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
(TensorFlow)实时语义分割比较研究
机器学习研究会
9+阅读 · 2018年3月12日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Arxiv
0+阅读 · 2021年3月15日
Arxiv
5+阅读 · 2020年3月16日
Arxiv
26+阅读 · 2018年2月27日
VIP会员
最新内容
《美战争部小企业创新研究(SBIR)计划》
专知会员服务
0+阅读 · 36分钟前
《军事模拟:将军事条令与目标融入AI智能体》
专知会员服务
1+阅读 · 41分钟前
【NTU博士论文】3D人体动作生成
专知会员服务
3+阅读 · 4月24日
以色列军事技术对美国军力发展的持续性赋能
专知会员服务
8+阅读 · 4月24日
《深度强化学习在兵棋推演中的应用》40页报告
专知会员服务
11+阅读 · 4月24日
《多域作战面临复杂现实》
专知会员服务
8+阅读 · 4月24日
《印度的多域作战:条令与能力发展》报告
专知会员服务
3+阅读 · 4月24日
Top
微信扫码咨询专知VIP会员