This paper summarizes our participation in the SMART Task of the ISWC 2020 Challenge. A particular question we are interested in answering is how well neural methods, and specifically transformer models, such as BERT, perform on the answer type prediction task compared to traditional approaches. Our main finding is that coarse-grained answer types can be identified effectively with standard text classification methods, with over 95% accuracy, and BERT can bring only marginal improvements. For fine-grained type detection, on the other hand, BERT clearly outperforms previous retrieval-based approaches.


翻译:本文件总结了我们参与SISWC2020挑战SMART任务的情况。我们感兴趣的一个具体问题是神经方法,特别是变压器模型,如BERT,与传统方法相比,在回答型预测任务上的表现如何。我们的主要结论是粗糙的回答类型可以与标准文本分类方法有效识别,精确率超过95%,而BERT只能带来微小的改进。另一方面,对于精细的型号检测,BERT显然比以前基于检索的方法效果更好。

0
下载
关闭预览

相关内容

国际语义网会议是介绍有关语义、数据和Web的基础研究、创新技术和应用的主要场所。旨在寻找针对语义Web的理论、分析和经验方面的新颖而重要的研究贡献,也鼓励在语义网和其他科学学科交叉领域的研究上做出贡献。提交到研究内容应该描述语义Web上的原创、有意义和可复制的研究。所有的论文必须包括方法评估,是严格的,可重复和可复制的。 官网地址:http://dblp.uni-trier.de/db/conf/semweb/
ICML 2021论文收录
专知会员服务
123+阅读 · 2021年5月8日
专知会员服务
61+阅读 · 2020年3月19日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
BERT源码分析PART I
AINLP
38+阅读 · 2019年7月12日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
VIP会员
最新内容
2025年大语言模型进展报告
专知会员服务
1+阅读 · 今天13:30
多智能体协作机制
专知会员服务
1+阅读 · 今天13:26
非对称优势:美海军开发低成本反无人机技术
专知会员服务
4+阅读 · 今天4:39
《美战争部小企业创新研究(SBIR)计划》
专知会员服务
6+阅读 · 今天2:48
《军事模拟:将军事条令与目标融入AI智能体》
专知会员服务
9+阅读 · 今天2:43
【NTU博士论文】3D人体动作生成
专知会员服务
7+阅读 · 4月24日
以色列军事技术对美国军力发展的持续性赋能
专知会员服务
8+阅读 · 4月24日
《深度强化学习在兵棋推演中的应用》40页报告
专知会员服务
14+阅读 · 4月24日
《多域作战面临复杂现实》
专知会员服务
10+阅读 · 4月24日
《印度的多域作战:条令与能力发展》报告
专知会员服务
5+阅读 · 4月24日
Top
微信扫码咨询专知VIP会员