A recent Dwarkesh Patel podcast with John Collison and Elon Musk featured an interesting puzzle from Jane Street: they trained a neural net, shuffled all 96 layers, and asked to put them back in order. Given unlabelled layers of a Residual Network and its training dataset, we recover the exact ordering of the layers. The problem decomposes into pairing each block's input and output projections ($48!$ possibilities) and ordering the reassembled blocks ($48!$ possibilities), for a combined search space of $(48!)^2 \approx 10^{122}$, which is more than the atoms in the observable universe. We show that stability conditions during training like dynamic isometry leave the product $W_{\text{out}} W_{\text{in}}$ for correctly paired layers with a negative diagonal structure, allowing us to use diagonal dominance ratio as a signal for pairing. For ordering, we seed-initialize with a rough proxy such as delta-norm or $\|W_{\text{out}}\|_F$ then hill-climb to zero mean squared error.


翻译:在最近Dwarkesh Patel对John Collison和Elon Musk的播客访谈中,Jane Street提出了一个有趣的谜题:他们训练了一个神经网络,打乱了全部96层,并要求将其按原顺序重新排列。给定残差网络的未标记层及其训练数据集,我们恢复了层的精确排列顺序。该问题可分解为配对每个块的输入和输出投影($48!$种可能性)以及对重组后的块进行排序($48!$种可能性),总搜索空间达$(48!)^2 \approx 10^{122}$,超过可观测宇宙中的原子数量。我们证明,训练过程中的稳定性条件(如动态等距性)会使正确配对层的乘积$W_{\text{输出}} W_{\text{输入}}$呈现负对角结构,从而可利用对角占优比作为配对信号。对于排序问题,我们采用δ范数或$\|W_{\text{输出}}\|_F$等粗略代理指标进行种子初始化,随后通过爬山算法实现零均方误差。

0
下载
关闭预览

相关内容

【MIT】理解深度学习网络里单个神经元的作用
专知会员服务
29+阅读 · 2020年9月12日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
35+阅读 · 2020年4月15日
从AlexNet到胶囊网络,CNN这五年(视频详解)
大数据文摘
11+阅读 · 2017年12月22日
【深度学习基础】4. Recurrent Neural Networks
微信AI
16+阅读 · 2017年7月19日
人工神经网络
平均机器
15+阅读 · 2017年7月17日
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
Arxiv
0+阅读 · 2月12日
Arxiv
0+阅读 · 2月5日
Arxiv
0+阅读 · 2月3日
Arxiv
10+阅读 · 2020年2月15日
VIP会员
最新内容
《第四代军事特种作战部队选拔与评估》
专知会员服务
1+阅读 · 今天6:23
不对称优势上升:自主系统如何强化海上拒止
专知会员服务
1+阅读 · 今天5:51
《人工智能赋能电磁战》(报告)
专知会员服务
2+阅读 · 4月17日
【CMU博士论文】迈向可扩展的开放世界三维感知
相关基金
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员