大量自监督(预训练)模型的兴起改变了许多数据驱动领域,如自然语言处理、计算机视觉、机器人和医疗成像。这门高级研究生课程旨在提供与这些模型相关的问题的整体观点:我们将从我们如何走到这里的历史开始,然后深入研究最新的成功故事。然后我们将关注这些技术的影响:社会危害、安全风险、法律问题和环境影响。本课程将以对这一发展轨迹的未来影响的反思结束。

前提条件:学生必须在深度学习、机器学习、人工智能和自然语言处理方面有丰富的经验。熟悉线性代数,统计学和概率,以及学习模型的设计和实现(通过学习库之一,如PyTorch, Tensorflow, Keras, JAX)。学生必须能够阅读论文并从论文中提取关键概念和观点。

讲者

Daniel Khashabi 的研究重点是通过自然语言的视角,研究智能行为的计算基础。目标是探索不同的方法,我们可以开发和评估系统,理解和推理(和关于)自然语言在不同的环境。主要认同自然语言处理(ACL、NAACL、EMNLP)和人工智能社区(AAAI、IJCAI),在某种程度上,认同机器学习社区(ICLR、NeurIPS、ICML)。 https://danielkhashabi.com/

目录内容:

1. Course overview, plan and expectations

2. Preliminaries: Past, Architectures, Pre-training, Capabilities

3. Pretraining Language Models

4. Architectures

5. In-context Learning

6. Social Harms: Bias

7. Memorization and Privacy

8. Pretraining Coding Models

9. Pretraining Vision-Language Models

10. Pretraining Speech/Audio Models

11. Evolving Memory

成为VIP会员查看完整内容
24

相关内容

自监督学习(self-supervised learning)可以被看作是机器学习的一种“理想状态”,模型直接从无标签数据中自行学习,无需标注数据。
不可错过!700+ppt《因果推理》课程!杜克大学Fan Li教程
专知会员服务
73+阅读 · 2022年7月11日
专知会员服务
45+阅读 · 2020年12月18日
专知会员服务
55+阅读 · 2020年10月11日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年11月3日
Arxiv
0+阅读 · 2022年11月2日
Arxiv
18+阅读 · 2021年6月10日
Arxiv
58+阅读 · 2021年5月3日
Arxiv
22+阅读 · 2018年8月30日
VIP会员
最新内容
内省扩散语言模型
专知会员服务
1+阅读 · 今天14:42
国外反无人机系统与技术动态
专知会员服务
2+阅读 · 今天12:48
大规模作战行动中的战术作战评估(研究论文)
专知会员服务
3+阅读 · 今天12:21
未来的海战无人自主系统
专知会员服务
2+阅读 · 今天12:05
美军多域作战现状分析:战略、概念还是幻想?
专知会员服务
4+阅读 · 今天11:52
无人机与反无人机系统(书籍)
专知会员服务
16+阅读 · 今天6:45
美陆军2026条令:安全与机动支援
专知会员服务
6+阅读 · 今天5:49
相关基金
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员