This article presents a systematic review of relation extraction (RE) research since the advent of Transformer-based models. Using an automated framework to collect and annotate publications, we analyze 34 surveys, 64 datasets, and 104 models published between 2019 and 2024. The review highlights methodological advances, benchmark resources, and the integration of semantic web technologies. By consolidating results across multiple dimensions, the study identifies current trends, limitations, and open challenges, offering researchers and practitioners a comprehensive reference for understanding the evolution and future directions of RE.


翻译:本文对Transformer模型出现以来的关系抽取研究进行了系统性综述。通过采用自动化框架收集并标注相关文献,我们分析了2019年至2024年间发表的34篇综述、64个数据集及104个模型。本综述重点阐述了方法学进展、基准资源以及语义网技术的融合应用。通过整合多维度研究成果,本研究揭示了当前趋势、现有局限与开放挑战,为研究人员与实践者理解关系抽取领域的发展脉络及未来方向提供了全面的参考依据。

0
下载
关闭预览

相关内容

关系抽取指的是检测和识别文本中实体之间的语义关系,并将表示同一语义关系的提及(mention)链接起来的任务。关系提取任务需要在一组工件(通常来自文本或XML文档)中对语义关系提及进行检测和分类。该任务与信息抽取(IE)的任务非常相似,但是IE还需要删除重复关系(消除歧义),并且通常指的是提取许多不同的关系。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
144页ppt《扩散模型》,Google DeepMind Sander Dieleman
专知会员服务
48+阅读 · 2025年11月21日
Transformers 出现以来关系抽取任务的系统综述
专知会员服务
25+阅读 · 2025年11月8日
信息检索中模型架构综述
专知会员服务
19+阅读 · 2025年2月23日
《计算流体力学中的机器学习最新进展》综述
专知会员服务
35+阅读 · 2024年8月24日
用于识别任务的视觉 Transformer 综述
专知会员服务
75+阅读 · 2023年2月25日
PointNet系列论文解读
人工智能前沿讲习班
17+阅读 · 2019年5月3日
论文笔记之attention mechanism专题1:SA-Net(CVPR 2018)
统计学习与视觉计算组
16+阅读 · 2018年4月5日
Mask R-CNN 论文笔记
统计学习与视觉计算组
11+阅读 · 2018年3月22日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
VIP会员
相关VIP内容
144页ppt《扩散模型》,Google DeepMind Sander Dieleman
专知会员服务
48+阅读 · 2025年11月21日
Transformers 出现以来关系抽取任务的系统综述
专知会员服务
25+阅读 · 2025年11月8日
信息检索中模型架构综述
专知会员服务
19+阅读 · 2025年2月23日
《计算流体力学中的机器学习最新进展》综述
专知会员服务
35+阅读 · 2024年8月24日
用于识别任务的视觉 Transformer 综述
专知会员服务
75+阅读 · 2023年2月25日
相关资讯
PointNet系列论文解读
人工智能前沿讲习班
17+阅读 · 2019年5月3日
论文笔记之attention mechanism专题1:SA-Net(CVPR 2018)
统计学习与视觉计算组
16+阅读 · 2018年4月5日
Mask R-CNN 论文笔记
统计学习与视觉计算组
11+阅读 · 2018年3月22日
相关基金
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员