成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
预训练
关注
23
在搭建网络模型时,需要随机初始化参数,然后开始训练网络,不断调整直到网络的损失越来越小。在训练的过程中,一开始初始化的参数会不断变化。当参数训练到比较好的时候就可以将训练模型的参数保存下来,以便训练好的模型可以在下次执行类似任务时获得较好的结果。
综合
百科
VIP
热门
动态
论文
精华
Improved Object-Centric Diffusion Learning with Registers and Contrastive Alignment
Arxiv
0+阅读 · 2月19日
propella-1: Multi-Property Document Annotation for LLM Data Curation at Scale
Arxiv
0+阅读 · 2月19日
Diffusion-Guided Pretraining for Brain Graph Foundation Models
Arxiv
0+阅读 · 2月19日
Position: Evaluation of ECG Representations Must Be Fixed
Arxiv
0+阅读 · 2月19日
Beyond the Encoder: Joint Encoder-Decoder Contrastive Pre-Training Improves Dense Prediction
Arxiv
0+阅读 · 2月19日
Enhancing Multilingual LLM Pretraining with Model-Based Data Selection
Arxiv
0+阅读 · 2月19日
Algorithmic Collusion at Test Time: A Meta-game Design and Evaluation
Arxiv
0+阅读 · 2月19日
Boosting Medical Visual Understanding From Multi-Granular Language Learning
Arxiv
0+阅读 · 2月19日
LORA-CRAFT: Cross-layer Rank Adaptation via Frozen Tucker Decomposition of Pre-trained Attention Weights
Arxiv
0+阅读 · 2月19日
Small LLMs for Medical NLP: a Systematic Analysis of Few-Shot, Constraint Decoding, Fine-Tuning and Continual Pre-Training in Italian
Arxiv
0+阅读 · 2月19日
Arcee Trinity Large Technical Report
Arxiv
0+阅读 · 2月19日
Towards Scalable Language-Image Pre-training for 3D Medical Imaging
Arxiv
0+阅读 · 2月19日
RoboGene: Boosting VLA Pre-training via Diversity-Driven Agentic Framework for Real-World Task Generation
Arxiv
0+阅读 · 2月19日
Attention, Please! Revisiting Attentive Probing Through the Lens of Efficiency
Arxiv
0+阅读 · 2月18日
Software Dependencies 2.0: An Empirical Study of Reuse and Integration of Pre-Trained Models in Open-Source Projects
Arxiv
0+阅读 · 2月18日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top