Transformers changed modern NLP in many ways. However, like many other neural architectures, they are still weak on exploiting domain knowledge and on interpretability. Unfortunately, the exploitation of external, structured knowledge is notoriously prone to a knowledge acquisition bottleneck. We thus propose a memory enhancement of transformer models that makes use of unstructured knowledge. That, expressed in plain text, can be used to carry out classification tasks and as a source of explanations for the model output. An experimental evaluation conducted on two challenging datasets demonstrates that our approach produces relevant explanations without losing in performance.


翻译:变异器在许多方面改变了现代NLP, 但是,与其他许多神经结构一样,它们在利用领域知识和可解释性方面仍然软弱无力。 不幸的是,外部结构化知识的利用极易造成知识获取瓶颈。 因此,我们提议对使用非结构化知识的变异器模型进行记忆强化。 以纯文本表示的,可以用来执行分类任务,并作为模型输出的解释来源。 对两个具有挑战性的数据集进行的实验性评估表明,我们的方法在不亏损性能的情况下产生了相关解释。

0
下载
关闭预览

相关内容

通过学习、实践或探索所获得的认识、判断或技能。
NeurlPS 2022 | 自然语言处理相关论文分类整理
专知会员服务
51+阅读 · 2022年10月2日
不可错过!700+ppt《因果推理》课程!杜克大学Fan Li教程
专知会员服务
72+阅读 · 2022年7月11日
最新《Transformers模型》教程,64页ppt
专知会员服务
326+阅读 · 2020年11月26日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
167+阅读 · 2020年3月18日
强化学习三篇论文 避免遗忘等
CreateAMind
20+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
VIP会员
相关VIP内容
NeurlPS 2022 | 自然语言处理相关论文分类整理
专知会员服务
51+阅读 · 2022年10月2日
不可错过!700+ppt《因果推理》课程!杜克大学Fan Li教程
专知会员服务
72+阅读 · 2022年7月11日
最新《Transformers模型》教程,64页ppt
专知会员服务
326+阅读 · 2020年11月26日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
167+阅读 · 2020年3月18日
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
20+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员