Federated learning on neuromorphic hardware remains unexplored because on-chip spike-timing-dependent plasticity (STDP) produces binary weight updates rather than the floating-point gradients assumed by standard algorithms. We build a two-node federated system with BrainChip Akida AKD1000 processors and run approximately 1,580 experimental trials across seven analysis phases. Of four weight-exchange strategies tested, neuron-level concatenation (FedUnion) consistently preserves accuracy while element-wise weight averaging (FedAvg) destroys it (p = 0.002). Domain-adaptive fine-tuning of the upstream feature extractor accounts for most of the accuracy gains, confirming feature quality as the dominant factor. Scaling feature dimensionality from 64 to 256 yields 77.0% best-strategy federated accuracy (n=30, p < 0.001). Two independent asymmetries (wider features help federation more than individual learning, while binarization hurts federation more) point to a shared prototype complementarity mechanism: cross-node transfer scales with the distinctiveness of neuron prototypes.


翻译:神经形态硬件上的联邦学习仍未被探索,因为片上脉冲时序依赖可塑性(STDP)产生的是二进制权重更新,而非标准算法所假设的浮点梯度。我们构建了一个包含两个BrainChip Akida AKD1000处理器的联邦系统,并在七个分析阶段进行了约1580次实验测试。在四种权重交换策略中,神经元级拼接(FedUnion)始终能保持精度,而逐元素权重平均(FedAvg)则会破坏精度(p = 0.002)。上游特征提取器的领域自适应微调贡献了大部分精度提升,证实了特征质量是主导因素。将特征维度从64扩展到256,可获得77.0%的最佳策略联邦精度(n=30,p < 0.001)。两个独立的不对称现象(更宽的特征对联邦学习的帮助大于个体学习,而二值化对联邦学习的损害更大)指向一个共享的原型互补机制:跨节点迁移的规模与神经元原型独特性成正比。

0
下载
关闭预览

相关内容

概述联邦持续学习最新研究进展
专知会员服务
31+阅读 · 2023年6月18日
《贝叶斯神经网络的联邦学习》2023最新73页论文
专知会员服务
61+阅读 · 2023年5月7日
移动边缘网络中联邦学习效率优化综述
专知会员服务
50+阅读 · 2022年7月9日
联邦学习研究综述
专知会员服务
151+阅读 · 2021年12月25日
基于深度神经网络的少样本学习综述
专知会员服务
173+阅读 · 2020年4月22日
《动手学深度学习》(Dive into Deep Learning)PyTorch实现
专知会员服务
121+阅读 · 2019年12月31日
联邦学习研究综述
专知
11+阅读 · 2021年12月25日
联邦学习安全与隐私保护研究综述
专知
12+阅读 · 2020年8月7日
联邦学习最新研究趋势!
AI科技评论
52+阅读 · 2020年3月12日
基于神经网络的实体识别和关系抽取联合学习 | PaperWeekly #54
黑龙江大学自然语言处理实验室
19+阅读 · 2017年12月14日
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
VIP会员
最新内容
《美陆军条例:陆军指挥政策(2026版)》
专知会员服务
8+阅读 · 今天8:10
《军用自主人工智能系统的治理与安全》
专知会员服务
5+阅读 · 今天8:02
《系统簇式多域作战规划范畴论框架》
专知会员服务
9+阅读 · 4月20日
高效视频扩散模型:进展与挑战
专知会员服务
5+阅读 · 4月20日
乌克兰前线的五项创新
专知会员服务
8+阅读 · 4月20日
 军事通信系统与设备的技术演进综述
专知会员服务
7+阅读 · 4月20日
《北约标准:医疗评估手册》174页
专知会员服务
6+阅读 · 4月20日
相关VIP内容
概述联邦持续学习最新研究进展
专知会员服务
31+阅读 · 2023年6月18日
《贝叶斯神经网络的联邦学习》2023最新73页论文
专知会员服务
61+阅读 · 2023年5月7日
移动边缘网络中联邦学习效率优化综述
专知会员服务
50+阅读 · 2022年7月9日
联邦学习研究综述
专知会员服务
151+阅读 · 2021年12月25日
基于深度神经网络的少样本学习综述
专知会员服务
173+阅读 · 2020年4月22日
《动手学深度学习》(Dive into Deep Learning)PyTorch实现
专知会员服务
121+阅读 · 2019年12月31日
相关基金
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员