Mixture of Experts (MoE) architectures enable efficient scaling of neural networks but suffer from expert collapse, where routing converges to a few dominant experts. This reduces model capacity and causes catastrophic interference during adaptation. We propose the Spectrally-Regularized Mixture of Experts (SR-MoE), which imposes geometric constraints on the routing manifold to enforce structural modularity. Our method uses dual regularization: spectral norm constraints bound routing function Lipschitz continuity, while stable rank penalties preserve high-dimensional feature diversity in expert selection. We evaluate SR-MoE across architectural scales and dataset complexities using modular one-shot adaptation tasks. Results show that traditional linear gating fails with increasing depth (accuracy drops up to 4.72% due to expert entanglement), while SR-MoE maintains structural integrity (mean interference -0.32%). Our spectral constraints facilitate positive knowledge transfer, enabling localized expert updates without global performance decay. SR-MoE provides a general solution for building high-capacity, modular networks capable of stable lifelong learning.


翻译:混合专家(MoE)架构能够实现神经网络的高效扩展,但存在专家坍缩问题,即路由机制会收敛于少数主导专家。这降低了模型容量并在适应过程中引发灾难性干扰。我们提出谱正则化混合专家(SR-MoE),通过对路由流形施加几何约束以增强结构模块化。该方法采用双重正则化:谱范数约束限制路由函数的Lipschitz连续性,而稳定秩惩罚则保持专家选择中高维特征多样性。我们通过模块化单次适应任务在不同架构规模与数据集复杂度下评估SR-MoE。实验表明传统线性门控机制随深度增加而失效(因专家纠缠导致准确率下降达4.72%),而SR-MoE能保持结构完整性(平均干扰-0.32%)。我们的谱约束促进了正向知识迁移,支持局部专家更新而无需牺牲全局性能。SR-MoE为构建具备稳定终身学习能力的高容量模块化网络提供了通用解决方案。

0
下载
关闭预览

相关内容

在数学,统计学和计算机科学中,尤其是在机器学习和逆问题中,正则化是添加信息以解决不适定问题或防止过度拟合的过程。 正则化适用于不适定的优化问题中的目标函数。
UnHiPPO:面向不确定性的状态空间模型初始化方法
专知会员服务
11+阅读 · 2025年6月6日
专知会员服务
28+阅读 · 2021年9月10日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员