论文题目: Pruning a BERT-based Question Answering Model

论文摘要: 我们研究了通过从基本的BERT模型中剪除参数来压缩基于BERT的问答系统。我们从为2.0小队训练的模型开始,引入允许变压器的选定部分被单独消除的门。具体来说,我们研究:(1)减少每个变压器中的注意头数目,(2)减少每个变压器的前向子层的中间宽度,以及(3)减少嵌入尺寸。我们比较了几种确定这些阈值的方法。我们发现剪枝注意头和前馈层的结合几乎使解码速度加倍,只有1.5f点的精度损失。

作者介绍: Jeffrey McCarley,IBM T.J.沃森研究中心

成为VIP会员查看完整内容
30

相关内容

BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
基于知识蒸馏的BERT模型压缩
大数据文摘
18+阅读 · 2019年10月14日
中文版-BERT-预训练的深度双向Transformer语言模型-详细介绍
BERT霸榜问答任务,谷歌新基准模型缩小AI与人类差距50%
未来产业促进会
4+阅读 · 2019年1月31日
Arxiv
8+阅读 · 2019年3月21日
QuAC : Question Answering in Context
Arxiv
4+阅读 · 2018年8月21日
VIP会员
最新内容
技术、多域威慑与海上战争(报告)
专知会员服务
1+阅读 · 32分钟前
“在云端防御”:提升北约数据韧性(报告)
专知会员服务
1+阅读 · 42分钟前
人工智能及其在海军行动中的整合(综述)
专知会员服务
0+阅读 · 今天14:07
美军MAVEN项目全面解析:算法战架构
专知会员服务
16+阅读 · 今天8:36
从俄乌战场看“马赛克战”(万字长文)
专知会员服务
10+阅读 · 今天8:19
最新“指挥控制”领域出版物合集(16份)
专知会员服务
16+阅读 · 4月12日
面向军事作战需求开发的人工智能(RAIMOND)
专知会员服务
22+阅读 · 4月12日
相关VIP内容
微信扫码咨询专知VIP会员