成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
预训练模型
关注
560
预训练模型是深度学习架构,已经过训练以执行大量数据上的特定任务(例如,识别图片中的分类问题)。这种训练不容易执行,并且通常需要大量资源,超出许多可用于深度学习模型的人可用的资源。
综合
百科
VIP
热门
动态
论文
精华
Personalizing black-box models for nonparametric regression with minimax optimality
Arxiv
0+阅读 · 1月4日
AMAuT: A Flexible and Efficient Multiview Audio Transformer Framework Trained from Scratch
Arxiv
0+阅读 · 2025年11月23日
Directional Diffusion-Style Code Editing Pre-training
Arxiv
0+阅读 · 2025年12月10日
End-to-end Contrastive Language-Speech Pretraining Model For Long-form Spoken Question Answering
Arxiv
0+阅读 · 2025年11月12日
Consistency-based Abductive Reasoning over Perceptual Errors of Multiple Pre-trained Models in Novel Environments
Arxiv
0+阅读 · 2025年12月3日
Consistency-based Abductive Reasoning over Perceptual Errors of Multiple Pre-trained Models in Novel Environments
Arxiv
0+阅读 · 2025年11月15日
Learning Sample Difficulty from Pre-trained Models for Reliable Prediction
Arxiv
0+阅读 · 2023年4月20日
Domain-specific Continued Pretraining of Language Models for Capturing Long Context in Mental Health
Arxiv
0+阅读 · 2023年4月20日
DyLoRA: Parameter Efficient Tuning of Pre-trained Models using Dynamic Search-Free Low-Rank Adaptation
Arxiv
0+阅读 · 2023年4月19日
Multi-domain Learning for Updating Face Anti-spoofing Models
Arxiv
0+阅读 · 2023年4月17日
SikuGPT: A Generative Pre-trained Model for Intelligent Information Processing of Ancient Texts from the Perspective of Digital Humanities
Arxiv
0+阅读 · 2023年4月16日
VALOR: Vision-Audio-Language Omni-Perception Pretraining Model and Dataset
Arxiv
0+阅读 · 2023年4月17日
TabRet: Pre-training Transformer-based Tabular Models for Unseen Columns
Arxiv
0+阅读 · 2023年4月16日
A Comprehensive Evaluation of the Copy Mechanism for Natural Language to SPARQL Query Generation
Arxiv
0+阅读 · 2023年4月16日
Evaluation of Social Biases in Recent Large Pre-Trained Models
Arxiv
0+阅读 · 2023年4月13日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top