Contextualized entity representations learned by state-of-the-art transformer-based language models (TLMs) like BERT, GPT, T5, etc., leverage the attention mechanism to learn the data context from training data corpus. However, these models do not use the knowledge context. Knowledge context can be understood as semantics about entities and their relationship with neighboring entities in knowledge graphs. We propose a novel and effective technique to infuse knowledge context from multiple knowledge graphs for conceptual and ambiguous entities into TLMs during fine-tuning. It projects knowledge graph embeddings in the homogeneous vector-space, introduces new token-types for entities, aligns entity position ids, and a selective attention mechanism. We take BERT as a baseline model and implement the "Knowledge-Infused BERT" by infusing knowledge context from ConceptNet and WordNet, which significantly outperforms BERT and other recent knowledge-aware BERT variants like ERNIE, SenseBERT, and BERT_CS over eight different subtasks of GLUE benchmark. The KI-BERT-base model even significantly outperforms BERT-large for domain-specific tasks like SciTail and academic subsets of QQP, QNLI, and MNLI.


翻译:由BERT、GPT、T5等最新变压器基语言模型(TLMs)所学的最新变压器语言模型(TLMs)所学的内幕实体表示,利用关注机制从培训数据库中学习数据背景,然而,这些模型并不使用知识背景。知识背景可以理解为实体的语义,以及它们在知识图中与相邻实体的关系。我们提出了一个新颖而有效的技术,在微调过程中,将概念和模棱两可的实体从多种知识图表中引入知识环境,将概念和模棱两可的实体纳入TLMS(TLER)、将知识图嵌入同质矢量空间,为实体引入新的代号类型,统一实体位置标识,以及选择性关注机制。我们将BERT作为基线模型,并通过从概念网和WordNet中引入知识背景环境来实施“知识应用的BERT(GNIE)、SenseBERT(SERT)和BERT-CSLI(GA)数据库模型,例如SQ-NER-IST-ILILA-ILA-BS-ILABS-GLILILA(S-ILILABS-GLILILABS-ILA)的模型,甚至显著的S-G-G-I-LIS-LIS-LIS-LIS-LIS-LIS-S-S-GF-GF-GT-GT-GLIS-GT-GT-GT-GT-GT-GT-GT-GT-GLIS-GT-GT-GT-GLIS-GT-GT-GT-GT-GT-GT-GT-GT-GT-GT-GT-GT-GT-GT-GT-GT-GT-GT-GLIS-GT-GT-GT-G-G-G-GT-G-G-G-G-G-G-G-G-G-G-GT-GT-GT-GT-G-G-G-GT-GT-GT-GT-G

1
下载
关闭预览

相关内容

FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
17篇必看[知识图谱Knowledge Graphs] 论文@AAAI2020
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
带你读论文丨 8 篇论文梳理 BERT 相关模型
新智元
9+阅读 · 2019年9月9日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Arxiv
102+阅读 · 2020年3月4日
Domain Representation for Knowledge Graph Embedding
Arxiv
14+阅读 · 2019年9月11日
Arxiv
20+阅读 · 2019年9月7日
Arxiv
4+阅读 · 2019年9月5日
VIP会员
最新内容
非对称优势:美海军开发低成本反无人机技术
专知会员服务
4+阅读 · 今天4:39
《美战争部小企业创新研究(SBIR)计划》
专知会员服务
5+阅读 · 今天2:48
《军事模拟:将军事条令与目标融入AI智能体》
专知会员服务
7+阅读 · 今天2:43
【NTU博士论文】3D人体动作生成
专知会员服务
6+阅读 · 4月24日
以色列军事技术对美国军力发展的持续性赋能
专知会员服务
8+阅读 · 4月24日
《深度强化学习在兵棋推演中的应用》40页报告
专知会员服务
13+阅读 · 4月24日
《多域作战面临复杂现实》
专知会员服务
9+阅读 · 4月24日
《印度的多域作战:条令与能力发展》报告
专知会员服务
4+阅读 · 4月24日
相关VIP内容
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
Top
微信扫码咨询专知VIP会员