成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
超参数
关注
1
在贝叶斯统计中,超参数是先验分布的参数; 该术语用于将它们与所分析的基础系统的模型参数区分开。
综合
百科
VIP
热门
动态
论文
精华
LoRA-Squeeze: Simple and Effective Post-Tuning and In-Tuning Compression of LoRA Modules
Arxiv
0+阅读 · 2月19日
Framework of Thoughts: A Foundation Framework for Dynamic and Optimized Reasoning based on Chains, Trees, and Graphs
Arxiv
0+阅读 · 2月18日
TabImpute: Universal Zero-Shot Imputation for Tabular Data
Arxiv
0+阅读 · 2月17日
Doubly Stochastic Mean-Shift Clustering
Arxiv
0+阅读 · 2月17日
$μ$pscaling small models: Principled warm starts and hyperparameter transfer
Arxiv
0+阅读 · 2月11日
Improving Credit Card Fraud Detection with an Optimized Explainable Boosting Machine
Arxiv
0+阅读 · 2月6日
Functional Estimation of the Marginal Likelihood
Arxiv
0+阅读 · 2月6日
How to Train Your LLM Web Agent: A Statistical Diagnosis
Arxiv
0+阅读 · 2月13日
Generalizing Scaling Laws for Dense and Sparse Large Language Models
Arxiv
0+阅读 · 2月9日
LLMs as In-Context Meta-Learners for Model and Hyperparameter Selection
Arxiv
0+阅读 · 2月13日
Position: Many generalization measures for deep learning are fragile
Arxiv
0+阅读 · 2月11日
CoFEH: LLM-driven Feature Engineering Empowered by Collaborative Bayesian Hyperparameter Optimization
Arxiv
0+阅读 · 2月10日
Default Machine Learning Hyperparameters Do Not Provide Informative Initialization for Bayesian Optimization
Arxiv
0+阅读 · 2月9日
A Meta-Knowledge-Augmented LLM Framework for Hyperparameter Optimization in Time-Series Forecasting
Arxiv
0+阅读 · 2月16日
TamperBench: Systematically Stress-Testing LLM Safety Under Fine-Tuning and Tampering
Arxiv
0+阅读 · 2月6日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top