成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
预训练模型
关注
561
预训练模型是深度学习架构,已经过训练以执行大量数据上的特定任务(例如,识别图片中的分类问题)。这种训练不容易执行,并且通常需要大量资源,超出许多可用于深度学习模型的人可用的资源。
综合
百科
VIP
热门
动态
论文
精华
Software Dependencies 2.0: An Empirical Study of Reuse and Integration of Pre-Trained Models in Open-Source Projects
Arxiv
0+阅读 · 2月18日
Partial Identification under Missing Data Using Weak Shadow Variables from Pretrained Models
Arxiv
0+阅读 · 2月17日
Transfer Learning of Linear Regression with Multiple Pretrained Models: Benefiting from More Pretrained Models via Overparameterization Debiasing
Arxiv
0+阅读 · 2月18日
Operationalising the Superficial Alignment Hypothesis via Task Complexity
Arxiv
0+阅读 · 2月17日
Learnable Chernoff Baselines for Inference-Time Alignment
Arxiv
0+阅读 · 2月8日
Learnable Chernoff Baselines for Inference-Time Alignment
Arxiv
0+阅读 · 2月13日
Mitigating Pretraining-Induced Attention Asymmetry in 2D+ Electron Microscopy Image Segmentation
Arxiv
0+阅读 · 2月16日
Late-to-Early Training: LET LLMs Learn Earlier, So Faster and Better
Arxiv
0+阅读 · 2月5日
Provable Target Sample Complexity Improvements as Pre-Trained Models Scale
Arxiv
0+阅读 · 2月4日
Nethira: A Heterogeneity-aware Hierarchical Pre-trained Model for Network Traffic Classification
Arxiv
0+阅读 · 1月30日
A Tool for Automatically Cataloguing and Selecting Pre-Trained Models and Datasets for Software Engineering
Arxiv
0+阅读 · 1月19日
Sparse Data Tree Canopy Segmentation: Fine-Tuning Leading Pretrained Models on Only 150 Images
Arxiv
0+阅读 · 1月16日
Frontiers of Generative AI for Network Optimization: Theories, Limits, and Visions
Arxiv
0+阅读 · 1月14日
End-to-end Contrastive Language-Speech Pretraining Model For Long-form Spoken Question Answering
Arxiv
0+阅读 · 1月21日
DocPolarBERT: A Pre-trained Model for Document Understanding with Relative Polar Coordinate Encoding of Layout Structures
Arxiv
0+阅读 · 1月22日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top