Multi--task learning seeks to improve the generalization error by leveraging the common information shared by multiple related tasks. One challenge in multi--task learning is identifying formulations capable of uncovering the common information shared between different but related tasks. This paper provides a precise asymptotic analysis of a popular multi--task formulation associated with misspecified perceptron learning models. The main contribution of this paper is to precisely determine the reasons behind the benefits gained from combining multiple related tasks. Specifically, we show that combining multiple tasks is asymptotically equivalent to a traditional formulation with additional regularization terms that help improve the generalization performance. Another contribution is to empirically study the impact of combining tasks on the generalization error. In particular, we empirically show that the combination of multiple tasks postpones the double descent phenomenon and can mitigate it asymptotically.


翻译:多任务学习旨在通过利用多个相关任务共享的公共信息来改善泛化误差。多任务学习中的一个挑战在于识别能够揭示不同但相关任务之间共享公共信息的公式化方法。本文对一种与误设感知器学习模型相关的流行多任务公式进行了精确的渐近分析。本文的主要贡献在于精确确定了组合多个相关任务带来收益的根本原因。具体而言,我们证明组合多个任务在渐近意义上等价于具有额外正则化项的传统公式化方法,这些正则化项有助于提升泛化性能。另一项贡献是对组合任务如何影响泛化误差进行了实证研究。特别地,我们通过实验证明多任务组合会推迟双下降现象的发生,并能在渐近意义上缓解该现象。

0
下载
关闭预览

相关内容

在数学,统计学和计算机科学中,尤其是在机器学习和逆问题中,正则化是添加信息以解决不适定问题或防止过度拟合的过程。 正则化适用于不适定的优化问题中的目标函数。
【阿姆斯特丹博士论文】缓解多任务学习中的偏差
专知会员服务
23+阅读 · 2024年11月1日
【NeurIPS 2023】基于时间注意力的多任务强化学习对比模块
港中文等最新《多模态元学习》综述论文
专知会员服务
124+阅读 · 2021年10月8日
《多任务学习》最新综述论文,20页pdf
专知会员服务
126+阅读 · 2021年4月6日
专知会员服务
235+阅读 · 2020年5月6日
最新《多任务学习》综述,39页pdf
专知
28+阅读 · 2020年7月10日
深度多模态表示学习综述论文,22页pdf
专知
33+阅读 · 2020年6月21日
关于深度多任务学习的 3 点经验
机器学习算法与Python学习
17+阅读 · 2019年2月18日
多模态多任务学习新论文
专知
46+阅读 · 2019年2月9日
DeepMind:用PopArt进行多任务深度强化学习
论智
29+阅读 · 2018年9月14日
半监督多任务学习:Semisupervised Multitask Learning
我爱读PAMI
18+阅读 · 2018年4月29日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
14+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
国家自然科学基金
48+阅读 · 2009年12月31日
Arxiv
0+阅读 · 3月11日
Arxiv
0+阅读 · 2月16日
VIP会员
相关VIP内容
【阿姆斯特丹博士论文】缓解多任务学习中的偏差
专知会员服务
23+阅读 · 2024年11月1日
【NeurIPS 2023】基于时间注意力的多任务强化学习对比模块
港中文等最新《多模态元学习》综述论文
专知会员服务
124+阅读 · 2021年10月8日
《多任务学习》最新综述论文,20页pdf
专知会员服务
126+阅读 · 2021年4月6日
专知会员服务
235+阅读 · 2020年5月6日
相关资讯
相关基金
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
14+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
国家自然科学基金
48+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员