The Clock and Pizza interpretations, associated with architectures differing in either uniform or learnable attention, were introduced to argue that different architectural designs can yield distinct circuits for modular addition. In this work, we show that this is not the case, and that both uniform attention and trainable attention architectures implement the same algorithm via topologically and geometrically equivalent representations. Our methodology goes beyond the interpretation of individual neurons and weights. Instead, we identify all of the neurons corresponding to each learned representation and then study the collective group of neurons as one entity. This method reveals that each learned representation is a manifold that we can study utilizing tools from topology. Based on this insight, we can statistically analyze the learned representations across hundreds of circuits to demonstrate the similarity between learned modular addition circuits that arise naturally from common deep learning paradigms.


翻译:针对具有均匀注意力与可学习注意力两种不同架构所提出的Clock与Pizza解释,曾被用于论证不同架构设计可产生不同的模加法计算回路。本研究表明事实并非如此:均匀注意力架构与可训练注意力架构实际上通过拓扑与几何等价的表示形式实现了相同的算法。我们的研究方法超越了对单个神经元与权重的解释,而是识别出每个习得表示对应的全部神经元,进而将神经元集合作为整体进行研究。该方法揭示每个习得表示均为一个流形,使我们能够运用拓扑学工具进行分析。基于这一洞见,我们通过对数百个计算回路中习得表示的统计分析,证明了从常见深度学习范式中自然产生的模加法习得回路具有高度相似性。

0
下载
关闭预览

相关内容

专知会员服务
42+阅读 · 2021年4月2日
【MIT】Yufei Zhao《图论与加法组合学》,177页pdf
专知会员服务
52+阅读 · 2020年4月27日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
35+阅读 · 2020年4月15日
【推荐】ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
机器学习研究会
20+阅读 · 2017年12月17日
【论文】深度学习的数学解释
机器学习研究会
10+阅读 · 2017年12月15日
【论文】图上的表示学习综述
机器学习研究会
15+阅读 · 2017年9月24日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关VIP内容
专知会员服务
42+阅读 · 2021年4月2日
【MIT】Yufei Zhao《图论与加法组合学》,177页pdf
专知会员服务
52+阅读 · 2020年4月27日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
35+阅读 · 2020年4月15日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员