Deep equilibrium models (DEQs) achieve infinitely deep network representations without stacking layers by exploring fixed points of layer transformations in neural networks. Such models constitute an innovative approach that achieves performance comparable to state-of-the-art methods in many large-scale numerical experiments, despite requiring significantly less memory. However, DEQs face the challenge of requiring vastly more computational time for training and inference than conventional methods, as they repeatedly perform fixed-point iterations with no convergence guarantee upon each input. Therefore, this study explored an approach to improve fixed-point convergence and consequently reduce computational time by restructuring the model architecture to guarantee fixed-point convergence. Our proposed approach for image classification, Lipschitz multiscale DEQ, has theoretically guaranteed fixed-point convergence for both forward and backward passes by hyperparameter adjustment, achieving up to a 4.75$\times$ speed-up in numerical experiments on CIFAR-10 at the cost of a minor drop in accuracy.


翻译:深度均衡模型(DEQs)通过探索神经网络中层变换的不动点,实现了无需堆叠层级的无限深度网络表示。此类模型作为一种创新方法,在诸多大规模数值实验中取得了与最先进方法相当的性能,同时显著降低了内存需求。然而,DEQs面临的主要挑战在于训练和推理所需的计算时间远超传统方法,因为其对每个输入需反复执行不动点迭代且无法保证收敛性。因此,本研究探索了一种通过重构模型架构以保证不动点收敛性,从而提升收敛速度并减少计算时间的方案。我们提出的图像分类方法——Lipschitz多尺度DEQ,通过超参数调整在理论上保证了前向传播与反向传播的不动点收敛性,在CIFAR-10数据集上的数值实验实现了最高4.75倍的加速,仅伴随微小的精度损失。

0
下载
关闭预览

相关内容

深度神经网络模型压缩与加速综述
专知会员服务
130+阅读 · 2019年10月12日
深度学习模型可解释性的研究进展
专知
26+阅读 · 2020年8月1日
深度多模态表示学习综述论文,22页pdf
专知
33+阅读 · 2020年6月21日
7个实用的深度学习技巧
机器学习算法与Python学习
16+阅读 · 2019年3月6日
超全总结:神经网络加速之量化模型 | 附带代码
展望:模型驱动的深度学习
人工智能学家
12+阅读 · 2018年1月23日
深度学习中的五大正则化方法和七大优化策略
全球人工智能
11+阅读 · 2017年12月25日
CNN 模型压缩与加速算法综述
机器学习研究会
16+阅读 · 2017年8月25日
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
13+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关资讯
深度学习模型可解释性的研究进展
专知
26+阅读 · 2020年8月1日
深度多模态表示学习综述论文,22页pdf
专知
33+阅读 · 2020年6月21日
7个实用的深度学习技巧
机器学习算法与Python学习
16+阅读 · 2019年3月6日
超全总结:神经网络加速之量化模型 | 附带代码
展望:模型驱动的深度学习
人工智能学家
12+阅读 · 2018年1月23日
深度学习中的五大正则化方法和七大优化策略
全球人工智能
11+阅读 · 2017年12月25日
CNN 模型压缩与加速算法综述
机器学习研究会
16+阅读 · 2017年8月25日
相关基金
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
13+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员