The present paper introduces concurrency-driven enhancements to the training algorithm for the Kolmogorov-Arnold networks (KANs) that is based on the Newton-Kaczmarz (NK) method. As indicated by prior research, the NK-based training for KANs offers state-of-the-art performance in terms of accuracy and training time on relatively large datasets, significantly overtaking classical neural networks based on multilayer perceptrons (MLPs). Although some elements of the algorithm can be parallelised (in particular, evaluation of the basis functions' values), a major limitation of the algorithm is the sequential application of the parameters' updates, which has not been resolved up to now. However, substantial acceleration is achievable. Three complementary strategies are proposed in the present paper: (i) a pre-training procedure tailored to the NK updates' structure, (ii) training on disjoint subsets of data, followed by models' merging, not in the context of federated learning, but as a mechanism for accelerating the convergence, and (iii) a parallelisation technique suitable for execution on field-programmable gate arrays (FPGAs), which is implemented and tested directly on the device. All experimental results presented in this work are fully reproducible, with the complete source codes available online.


翻译:本文针对基于Newton-Kaczmarz(NK)方法的Kolmogorov-Arnold网络(KANs)训练算法,提出了并发驱动的增强策略。先前研究表明,基于NK的KAN训练在较大规模数据集上实现了精度与训练时间方面的先进性能,显著超越了基于多层感知机(MLP)的传统神经网络。尽管该算法的部分环节可并行化(特别是基函数值的计算),但其核心局限在于参数更新的顺序执行特性,此问题至今尚未解决。然而,显著的加速效果是可实现的。本文提出三种互补策略:(一)针对NK更新结构设计的预训练流程;(二)在非联邦学习背景下,通过对数据不相交子集进行训练并执行模型融合,以此作为加速收敛的机制;(三)适用于现场可编程门阵列(FPGA)的并行化技术,该技术已在设备端直接实现与验证。本工作所有实验结果均具备完全可复现性,完整源代码已在线公开。

0
下载
关闭预览

相关内容

脉冲神经网络的架构原理、数据集和训练方法
专知会员服务
23+阅读 · 2024年8月13日
专知会员服务
48+阅读 · 2021年2月2日
【KDD2020】图神经网络生成式预训练
专知
23+阅读 · 2020年7月3日
ICML2020 图神经网络的预训练
图与推荐
12+阅读 · 2020年4月4日
【GNN】深度学习之上,图神经网络(GNN )崛起
产业智能官
16+阅读 · 2019年8月15日
生成对抗网络GANs学习路线
专知
37+阅读 · 2019年6月10日
掌握图神经网络GNN基本,看这篇文章就够了
新智元
164+阅读 · 2019年2月14日
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
国家自然科学基金
11+阅读 · 2008年12月31日
VIP会员
相关VIP内容
脉冲神经网络的架构原理、数据集和训练方法
专知会员服务
23+阅读 · 2024年8月13日
专知会员服务
48+阅读 · 2021年2月2日
相关基金
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
国家自然科学基金
11+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员