BabyLM aims to dissolve the boundaries between cognitive modeling and language modeling. We call for both workshop papers and for researchers to join the 4th BabyLM competition. As in previous years, we call for participants in the data-efficient pretraining challenge in the general track. This year, we also offer a new track: Multilingual. We also call for papers outside the competition in any relevant areas. These include training efficiency, cognitively plausible research, weak model evaluation, and more.


翻译:BabyLM 旨在消弭认知建模与语言建模之间的界限。我们诚邀研究者提交研讨会论文并参与第四届 BabyLM 竞赛。与往年相同,我们征集通用赛道的数据高效预训练挑战参与者。今年我们新增多语言赛道。同时,我们亦征集竞赛范围外的相关领域论文,包括训练效率、认知合理性研究、弱模型评估等方向。

0
下载
关闭预览

相关内容

论文(Paper)是专知网站核心资料文档,包括全球顶级期刊、顶级会议论文,及全球顶尖高校博士硕士学位论文。重点关注中国计算机学会推荐的国际学术会议和期刊,CCF-A、B、C三类。通过人机协作方式,汇编、挖掘后呈现于专知网站。
ICLR 2024奖项出炉,5 篇杰出论文奖以及 11 篇荣誉提名
专知会员服务
30+阅读 · 2024年5月9日
北大获奖,清华、人大等提名,ICLR 2023杰出论文奖出炉
专知会员服务
20+阅读 · 2023年3月24日
机器学习顶会ICML2022接受论文列表!1235篇论文都在这了!
一大批中文(BERT等)预训练模型等你认领!
PaperWeekly
15+阅读 · 2019年6月25日
BERT相关论文、文章和代码资源汇总
AINLP
19+阅读 · 2018年11月17日
自然语言处理顶会EMNLP2018接受论文列表!
专知
87+阅读 · 2018年8月26日
国家自然科学基金
1+阅读 · 2018年9月23日
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2月5日
VIP会员
最新内容
《第四代军事特种作战部队选拔与评估》
专知会员服务
0+阅读 · 今天6:23
不对称优势上升:自主系统如何强化海上拒止
专知会员服务
0+阅读 · 今天5:51
《人工智能赋能电磁战》(报告)
专知会员服务
2+阅读 · 4月17日
【CMU博士论文】迈向可扩展的开放世界三维感知
相关VIP内容
ICLR 2024奖项出炉,5 篇杰出论文奖以及 11 篇荣誉提名
专知会员服务
30+阅读 · 2024年5月9日
北大获奖,清华、人大等提名,ICLR 2023杰出论文奖出炉
专知会员服务
20+阅读 · 2023年3月24日
机器学习顶会ICML2022接受论文列表!1235篇论文都在这了!
相关基金
国家自然科学基金
1+阅读 · 2018年9月23日
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员