This paper presents a deep machine learning architecture, the "polyharmonic cascade" -- a sequence of packages of polyharmonic splines, where each layer is rigorously derived from the theory of random functions and the principles of indifference. This makes it possible to approximate nonlinear functions of arbitrary complexity while preserving global smoothness and a probabilistic interpretation. For the polyharmonic cascade, a training method alternative to gradient descent is proposed: instead of directly optimizing the coefficients, one solves a single global linear system on each batch with respect to the function values at fixed "constellations" of nodes. This yields synchronized updates of all layers, preserves the probabilistic interpretation of individual layers and theoretical consistency with the original model, and scales well: all computations reduce to 2D matrix operations efficiently executed on a GPU. Fast learning without overfitting on MNIST is demonstrated.


翻译:本文提出一种深度机器学习架构——“多谐级联”,即一系列多谐样条包的序列,其中每一层均严格源自随机函数理论和无差别原理。这使得在保持全局平滑性和概率解释的同时,逼近任意复杂度的非线性函数成为可能。针对多谐级联,本文提出了一种替代梯度下降的训练方法:不直接优化系数,而是在每个批次上针对固定“节点星座”处的函数值求解单一全局线性系统。该方法实现了所有层的同步更新,保持了各层的概率解释及与原始模型的理论一致性,并具备良好的可扩展性:所有计算均可简化为可在GPU上高效执行的二维矩阵运算。实验在MNIST数据集上展示了快速学习且无过拟合的性能。

0
下载
关闭预览

相关内容

【CVPR2022】整合少样本学习的分类和分割
专知会员服务
28+阅读 · 2022年3月31日
【Yoshua Bengio最新一作论文】GFlowNet基础,GFlowNet Foundations
专知会员服务
26+阅读 · 2021年11月22日
专知会员服务
31+阅读 · 2020年12月14日
专知会员服务
29+阅读 · 2020年10月2日
专知会员服务
63+阅读 · 2020年3月4日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
112+阅读 · 2019年11月25日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
【论文笔记】Graph U-Nets
专知
81+阅读 · 2019年11月25日
【NeurIPS2019】图变换网络:Graph Transformer Network
AI新视野 | 数据蒸馏Dataset Distillation
人工智能前沿讲习班
31+阅读 · 2019年6月14日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
Arxiv
0+阅读 · 1月29日
Arxiv
0+阅读 · 1月22日
Arxiv
0+阅读 · 1月21日
Arxiv
0+阅读 · 1月15日
Arxiv
0+阅读 · 1月15日
Arxiv
0+阅读 · 1月14日
Arxiv
0+阅读 · 1月14日
Arxiv
0+阅读 · 1月14日
VIP会员
相关VIP内容
【CVPR2022】整合少样本学习的分类和分割
专知会员服务
28+阅读 · 2022年3月31日
【Yoshua Bengio最新一作论文】GFlowNet基础,GFlowNet Foundations
专知会员服务
26+阅读 · 2021年11月22日
专知会员服务
31+阅读 · 2020年12月14日
专知会员服务
29+阅读 · 2020年10月2日
专知会员服务
63+阅读 · 2020年3月4日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
112+阅读 · 2019年11月25日
相关论文
Arxiv
0+阅读 · 1月29日
Arxiv
0+阅读 · 1月22日
Arxiv
0+阅读 · 1月21日
Arxiv
0+阅读 · 1月15日
Arxiv
0+阅读 · 1月15日
Arxiv
0+阅读 · 1月14日
Arxiv
0+阅读 · 1月14日
Arxiv
0+阅读 · 1月14日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员