Neural networks with positively homogeneous activations exhibit an exact continuous reparametrization symmetry: neuron-wise rescalings generate parameter-space orbits along which the input--output function is invariant. We interpret this symmetry as a gauge redundancy and introduce gauge-adapted coordinates that separate invariant and scale-imbalance directions. Inspired by gauge fixing in field theory, we introduce a soft orbit-selection (norm-balancing) functional acting only on redundant scale coordinates. We show analytically that it induces dissipative relaxation of imbalance modes to preserve the realized function. In controlled experiments, this orbit-selection penalty expands the stable learning-rate regime and suppresses scale drift without changing expressivity. These results establish a structural link between gauge-orbit geometry and optimization conditioning, providing a concrete connection between gauge-theoretic concepts and machine learning.


翻译:具有正齐次激活函数的神经网络表现出精确的连续重参数化对称性:神经元级别的缩放会在参数空间中生成轨道,而输入-输出函数沿这些轨道保持不变。我们将此对称性解释为一种规范冗余,并引入适应规范的坐标以分离不变方向与尺度失衡方向。受场论中规范固定的启发,我们引入一种仅作用于冗余尺度坐标的软轨道选择(范数平衡)泛函。我们通过解析证明,该泛函会诱导失衡模式的耗散弛豫,从而保持已实现的函数不变。在受控实验中,这种轨道选择惩罚扩展了稳定学习率的范围,并在不改变表达能力的条件下抑制了尺度漂移。这些结果建立了规范轨道几何结构与优化条件之间的结构性联系,为规范理论概念与机器学习提供了具体关联。

0
下载
关闭预览

相关内容

【纽约大学博士论文】对称神经网络理论,148页pdf
专知会员服务
41+阅读 · 2024年4月4日
深度学习激活函数全面综述论文
专知会员服务
72+阅读 · 2021年10月1日
专知会员服务
29+阅读 · 2020年10月24日
激活函数还是有一点意思的!
计算机视觉战队
12+阅读 · 2019年6月28日
深入卷积神经网络背后的数学原理
人工智能学家
10+阅读 · 2019年4月26日
干货 | 深入理解深度学习中的激活函数
计算机视觉life
16+阅读 · 2019年1月29日
图神经网络最近这么火,不妨看看我们精选的这七篇
人工智能前沿讲习班
37+阅读 · 2018年12月10日
SFFAI报告 | 常建龙 :深度卷积网络中的卷积算子研究进展
人工智能前沿讲习班
11+阅读 · 2018年10月22日
超全总结:神经网络加速之量化模型 | 附带代码
深度学习中的五大正则化方法和七大优化策略
全球人工智能
11+阅读 · 2017年12月25日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关VIP内容
相关资讯
激活函数还是有一点意思的!
计算机视觉战队
12+阅读 · 2019年6月28日
深入卷积神经网络背后的数学原理
人工智能学家
10+阅读 · 2019年4月26日
干货 | 深入理解深度学习中的激活函数
计算机视觉life
16+阅读 · 2019年1月29日
图神经网络最近这么火,不妨看看我们精选的这七篇
人工智能前沿讲习班
37+阅读 · 2018年12月10日
SFFAI报告 | 常建龙 :深度卷积网络中的卷积算子研究进展
人工智能前沿讲习班
11+阅读 · 2018年10月22日
超全总结:神经网络加速之量化模型 | 附带代码
深度学习中的五大正则化方法和七大优化策略
全球人工智能
11+阅读 · 2017年12月25日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员