一个1024的MLP,击败了几乎所有的GNN模型

2022 年 8 月 31 日 图与推荐

近些年,一些NLP研究者尝试利用GNN来做一些NLP相关的任务。但是,ACL2022一篇论文的实验结果:一个1024的MLP,击败了几乎所有的GNN模型

上述结论来自"Bag-of-Words vs. Graph vs. Sequence in Text Classification: Questioning the Necessity of Text-Graphs and the Surprising Strength of a Wide MLP"

文本分类这个问题上套各种GNN的工作,基本就是灌水

这么没有挑战性的任务,就像北京市中考试卷


登录查看更多
0

相关内容

WWW 2022 :基于纯MLP架构的序列推荐模型
专知会员服务
16+阅读 · 2022年3月20日
专知会员服务
33+阅读 · 2021年10月4日
专知会员服务
59+阅读 · 2021年4月29日
六篇 EMNLP 2019【图神经网络(GNN)+NLP】相关论文
专知会员服务
72+阅读 · 2019年11月3日
ICLR'22 | 图机器学习最近都在研究什么?
图与推荐
1+阅读 · 2021年11月19日
论文合集 | 如何解释你的GNN模型?
图与推荐
1+阅读 · 2021年11月3日
KDD'21 | 如何评估GNN的解释性模型?
图与推荐
1+阅读 · 2021年9月30日
KDD2021 | 最新GNN官方教程
机器学习与推荐算法
2+阅读 · 2021年8月18日
使用BERT做文本摘要
专知
23+阅读 · 2019年12月7日
150 多个 ML、NLP 和 Python 相关的教程
Python开发者
14+阅读 · 2017年8月15日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
35+阅读 · 2020年1月2日
Arxiv
20+阅读 · 2019年9月7日
Arxiv
24+阅读 · 2018年10月24日
Arxiv
26+阅读 · 2018年2月27日
VIP会员
最新内容
美军MAVEN项目全面解析:算法战架构
专知会员服务
13+阅读 · 今天8:36
从俄乌战场看“马赛克战”(万字长文)
专知会员服务
8+阅读 · 今天8:19
最新“指挥控制”领域出版物合集(16份)
专知会员服务
14+阅读 · 4月12日
面向军事作战需求开发的人工智能(RAIMOND)
专知会员服务
20+阅读 · 4月12日
远程空中优势:新一代超视距导弹的兴起
专知会员服务
4+阅读 · 4月12日
大语言模型溯因推理的统一分类学与综述
专知会员服务
6+阅读 · 4月12日
相关VIP内容
相关资讯
ICLR'22 | 图机器学习最近都在研究什么?
图与推荐
1+阅读 · 2021年11月19日
论文合集 | 如何解释你的GNN模型?
图与推荐
1+阅读 · 2021年11月3日
KDD'21 | 如何评估GNN的解释性模型?
图与推荐
1+阅读 · 2021年9月30日
KDD2021 | 最新GNN官方教程
机器学习与推荐算法
2+阅读 · 2021年8月18日
使用BERT做文本摘要
专知
23+阅读 · 2019年12月7日
150 多个 ML、NLP 和 Python 相关的教程
Python开发者
14+阅读 · 2017年8月15日
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员