Energy-based learning algorithms are alternatives to backpropagation and are well-suited to distributed implementations in analog electronic devices. However, a rigorous theory of convergence is lacking. We make a first step in this direction by analysing a particular energybased learning algorithm, Contrastive Learning, applied to a network of linear adjustable resistors. It is shown that, in this setup, Contrastive Learning is equivalent to projected gradient descent on a convex function with Lipschitz continuous gradient, giving a guarantee of convergence of the algorithm for a range of stepsizes. This convergence result is then extended to a stochastic variant of Contrastive Learning.


翻译:基于能量的学习算法是反向传播的替代方案,非常适合在模拟电子设备中实现分布式部署。然而,目前缺乏关于其收敛性的严格理论。我们通过分析一种特定的基于能量的学习算法——对比学习,并将其应用于线性可调电阻网络,朝着这一方向迈出了第一步。研究表明,在此设置下,对比学习等价于在具有利普希茨连续梯度的凸函数上进行投影梯度下降,从而为该算法在一定步长范围内提供了收敛性保证。随后,这一收敛结果被推广到对比学习的随机变体。

0
下载
关闭预览

相关内容

能耗优化的神经网络轻量化方法研究进展
专知会员服务
27+阅读 · 2023年1月29日
「分布式机器学习系统网络性能优化」研究进展
专知会员服务
28+阅读 · 2022年10月1日
蛋白质深度神经网络能量函数的构建
专知会员服务
15+阅读 · 2022年8月28日
网络表示学习概述
机器学习与推荐算法
19+阅读 · 2020年3月27日
【干货】​深度学习中的线性代数
专知
21+阅读 · 2018年3月30日
【干货】理解深度学习中的矩阵运算
专知
12+阅读 · 2018年2月12日
图上的归纳表示学习
科技创新与创业
23+阅读 · 2017年11月9日
干货 | 深度学习之卷积神经网络(CNN)的模型结构
机器学习算法与Python学习
12+阅读 · 2017年11月1日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
相关VIP内容
能耗优化的神经网络轻量化方法研究进展
专知会员服务
27+阅读 · 2023年1月29日
「分布式机器学习系统网络性能优化」研究进展
专知会员服务
28+阅读 · 2022年10月1日
蛋白质深度神经网络能量函数的构建
专知会员服务
15+阅读 · 2022年8月28日
相关资讯
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员