成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
多任务学习
关注
161
多任务学习(MTL)是机器学习的一个子领域,可以同时解决多个学习任务,同时利用各个任务之间的共性和差异。与单独训练模型相比,这可以提高特定任务模型的学习效率和预测准确性。多任务学习是归纳传递的一种方法,它通过将相关任务的训练信号中包含的域信息用作归纳偏差来提高泛化能力。通过使用共享表示形式并行学习任务来实现,每个任务所学的知识可以帮助更好地学习其它任务。
综合
百科
VIP
热门
动态
论文
精华
Learning Perceptual Representations for Gaming NR-VQA with Multi-Task FR Signals
Arxiv
0+阅读 · 2月19日
Color-based Emotion Representation for Speech Emotion Recognition
Arxiv
0+阅读 · 2月18日
Learning Perceptual Representations for Gaming NR-VQA with Multi-Task FR Signals
Arxiv
0+阅读 · 2月12日
Multi-Task Learning with Additive U-Net for Image Denoising and Classification
Arxiv
0+阅读 · 2月13日
Energy Injection Identification enabled Disaggregation with Deep Multi-Task Learning
Arxiv
0+阅读 · 2月11日
DeepMTL2R: A Library for Deep Multi-task Learning to Rank
Arxiv
0+阅读 · 2月16日
MDL: A Unified Multi-Distribution Learner in Large-scale Industrial Recommendation through Tokenization
Arxiv
0+阅读 · 2月10日
MDL: A Unified Multi-Distribution Learner in Large-scale Industrial Recommendation through Tokenization
Arxiv
0+阅读 · 2月7日
Flexible Multitask Learning with Factorized Diffusion Policy
Arxiv
0+阅读 · 2月1日
Monotonic Transformation Invariant Multi-task Learning
Arxiv
0+阅读 · 2月2日
Multi-Task Learning for Robot Perception with Imbalanced Data
Arxiv
0+阅读 · 2月2日
Unified Multimodal and Multilingual Retrieval via Multi-Task Learning with NLU Integration
Arxiv
0+阅读 · 1月21日
One LLM to Train Them All: Multi-Task Learning Framework for Fact-Checking
Arxiv
0+阅读 · 1月16日
When More Data Doesn't Help: Limits of Adaptation in Multitask Learning
Arxiv
0+阅读 · 1月28日
RobuMTL: Enhancing Multi-Task Learning Robustness Against Weather Conditions
Arxiv
0+阅读 · 1月16日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top