This article presents a systematic review of relation extraction (RE) research since the advent of Transformer-based models. Using an automated framework to collect and annotate publications, we analyze 34 surveys, 64 datasets, and 104 models published between 2019 and 2024. The review highlights methodological advances, benchmark resources, and the integration of semantic web technologies. By consolidating results across multiple dimensions, the study identifies current trends, limitations, and open challenges, offering researchers and practitioners a comprehensive reference for understanding the evolution and future directions of RE.


翻译:本文对Transformer模型出现以来的关系抽取研究进行了系统综述。通过使用自动化框架收集和标注文献,我们分析了2019年至2024年间发表的34篇综述、64个数据集和104个模型。该综述重点探讨了方法学进展、基准资源以及语义网技术的融合。通过整合多维度结果,本研究识别了当前趋势、局限性与开放挑战,为研究人员和实践者理解关系抽取领域的发展脉络与未来方向提供了全面的参考依据。

0
下载
关闭预览

相关内容

关系抽取指的是检测和识别文本中实体之间的语义关系,并将表示同一语义关系的提及(mention)链接起来的任务。关系提取任务需要在一组工件(通常来自文本或XML文档)中对语义关系提及进行检测和分类。该任务与信息抽取(IE)的任务非常相似,但是IE还需要删除重复关系(消除歧义),并且通常指的是提取许多不同的关系。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
144页ppt《扩散模型》,Google DeepMind Sander Dieleman
专知会员服务
48+阅读 · 2025年11月21日
Transformers 出现以来关系抽取任务的系统综述
专知会员服务
25+阅读 · 2025年11月8日
LLM4SR:关于大规模语言模型在科学研究中的应用综述
专知会员服务
42+阅读 · 2025年1月9日
《计算流体力学中的机器学习最新进展》综述
专知会员服务
35+阅读 · 2024年8月24日
OpenAI科学家一文详解自监督学习
新智元
18+阅读 · 2019年11月20日
PointNet系列论文解读
人工智能前沿讲习班
17+阅读 · 2019年5月3日
论文笔记之attention mechanism专题1:SA-Net(CVPR 2018)
统计学习与视觉计算组
16+阅读 · 2018年4月5日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2025年12月25日
VIP会员
相关VIP内容
144页ppt《扩散模型》,Google DeepMind Sander Dieleman
专知会员服务
48+阅读 · 2025年11月21日
Transformers 出现以来关系抽取任务的系统综述
专知会员服务
25+阅读 · 2025年11月8日
LLM4SR:关于大规模语言模型在科学研究中的应用综述
专知会员服务
42+阅读 · 2025年1月9日
《计算流体力学中的机器学习最新进展》综述
专知会员服务
35+阅读 · 2024年8月24日
相关资讯
OpenAI科学家一文详解自监督学习
新智元
18+阅读 · 2019年11月20日
PointNet系列论文解读
人工智能前沿讲习班
17+阅读 · 2019年5月3日
论文笔记之attention mechanism专题1:SA-Net(CVPR 2018)
统计学习与视觉计算组
16+阅读 · 2018年4月5日
相关基金
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员