SparseBERT: Rethinking the Importance Analysis in Self-attention

作为Transformer中重要的结构,self-attention一直是研究的热点。之前的工作往往是通过可视化预训练好的Transformer模型来分析注意力矩阵中共同的模式,并基于此提出了一系列稀疏的注意掩码。本文在预训练时动态地研究了注意力矩阵地变化并重新思考了self-attention中位置的重要性。其中一个有趣的结论是注意力矩阵的对角线元素和其他位置相比是最不重要的。为了解释这个现象,我们从通用近似定理的角度上证明了这些位置是可以被舍弃的。为了进一步降低self-attention的计算复杂度,我们提出可微分注意掩码(DAM)算法,可以用于指导 SparseBERT的设计。

https://www.zhuanzhi.ai/paper/2764524507c1fa4028fcaa8f4aea61a3

成为VIP会员查看完整内容
37

相关内容

专知会员服务
23+阅读 · 2021年6月28日
专知会员服务
39+阅读 · 2021年6月11日
专知会员服务
50+阅读 · 2021年6月2日
【ICML2021】来自观察的跨域模仿
专知会员服务
18+阅读 · 2021年5月25日
【ICML2021】具有线性复杂度的Transformer的相对位置编码
专知会员服务
25+阅读 · 2021年5月20日
专知会员服务
82+阅读 · 2021年5月10日
【论文笔记】自注意力图池化
专知
82+阅读 · 2019年11月18日
注意力机制可解释吗?这篇ACL 2019论文说……
机器之心
11+阅读 · 2019年6月16日
进一步改进GPT和BERT:使用Transformer的语言模型
机器之心
16+阅读 · 2019年5月1日
深入理解BERT Transformer ,不仅仅是注意力机制
大数据文摘
22+阅读 · 2019年3月19日
Arxiv
0+阅读 · 2021年7月2日
Arxiv
23+阅读 · 2020年9月16日
Sparse Sequence-to-Sequence Models
Arxiv
5+阅读 · 2019年5月14日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Arxiv
6+阅读 · 2019年3月19日
Arxiv
4+阅读 · 2018年10月31日
Next Item Recommendation with Self-Attention
Arxiv
5+阅读 · 2018年8月25日
VIP会员
最新内容
非对称优势:美海军开发低成本反无人机技术
专知会员服务
4+阅读 · 今天4:39
《美战争部小企业创新研究(SBIR)计划》
专知会员服务
5+阅读 · 今天2:48
《军事模拟:将军事条令与目标融入AI智能体》
专知会员服务
8+阅读 · 今天2:43
【NTU博士论文】3D人体动作生成
专知会员服务
6+阅读 · 4月24日
以色列军事技术对美国军力发展的持续性赋能
专知会员服务
8+阅读 · 4月24日
《深度强化学习在兵棋推演中的应用》40页报告
专知会员服务
13+阅读 · 4月24日
《多域作战面临复杂现实》
专知会员服务
9+阅读 · 4月24日
《印度的多域作战:条令与能力发展》报告
专知会员服务
4+阅读 · 4月24日
相关VIP内容
专知会员服务
23+阅读 · 2021年6月28日
专知会员服务
39+阅读 · 2021年6月11日
专知会员服务
50+阅读 · 2021年6月2日
【ICML2021】来自观察的跨域模仿
专知会员服务
18+阅读 · 2021年5月25日
【ICML2021】具有线性复杂度的Transformer的相对位置编码
专知会员服务
25+阅读 · 2021年5月20日
专知会员服务
82+阅读 · 2021年5月10日
相关论文
Arxiv
0+阅读 · 2021年7月2日
Arxiv
23+阅读 · 2020年9月16日
Sparse Sequence-to-Sequence Models
Arxiv
5+阅读 · 2019年5月14日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Arxiv
6+阅读 · 2019年3月19日
Arxiv
4+阅读 · 2018年10月31日
Next Item Recommendation with Self-Attention
Arxiv
5+阅读 · 2018年8月25日
微信扫码咨询专知VIP会员