成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
过拟合
关注
8
过拟合,在AI领域多指机器学习得到模型太过复杂,导致在训练集上表现很好,然而在测试集上却不尽人意。过拟合(over-fitting)也称为过学习,它的直观表现是算法在训练集上表现好,但在测试集上表现不好,泛化性能差。过拟合是在模型参数拟合过程中由于训练数据包含抽样误差,在训练时复杂的模型将抽样误差也进行了拟合导致的。
综合
百科
VIP
热门
动态
论文
精华
DA-DPO: Cost-efficient Difficulty-aware Preference Optimization for Reducing MLLM Hallucinations
Arxiv
0+阅读 · 1月2日
Dynamic Feedback Engines: Layer-Wise Control for Self-Regulating Continual Learning
Arxiv
0+阅读 · 2025年12月25日
ScoreMatchingRiesz: Auto-DML with Infinitesimal Classification
Arxiv
0+阅读 · 2025年12月23日
Leveraging Overfitting for Low-Complexity and Modality-Agnostic Joint Source-Channel Coding
Arxiv
0+阅读 · 2025年12月24日
Generalization of Diffusion Models Arises with a Balanced Representation Space
Arxiv
0+阅读 · 2025年12月24日
DartQuant: Efficient Rotational Distribution Calibration for LLM Quantization
Arxiv
0+阅读 · 2025年11月6日
Benign Overfitting in Linear Classifiers with a Bias Term
Arxiv
0+阅读 · 2025年11月16日
Is the Cure Still Worse Than the Disease? Test Overfitting by LLMs in Automated Program Repair
Arxiv
0+阅读 · 2025年11月20日
Continuum Dropout for Neural Differential Equations
Arxiv
0+阅读 · 2025年11月18日
Continuum Dropout for Neural Differential Equations
Arxiv
0+阅读 · 2025年11月13日
AMaPO: Adaptive Margin-attached Preference Optimization for Language Model Alignment
Arxiv
0+阅读 · 2025年11月15日
Correcting the Coverage Bias of Quantile Regression
Arxiv
0+阅读 · 2025年11月2日
Correcting the Coverage Bias of Quantile Regression
Arxiv
0+阅读 · 2025年11月7日
Few-shot Class-incremental Fault Diagnosis by Preserving Class-Agnostic Knowledge with Dual-Granularity Representations
Arxiv
0+阅读 · 2025年11月19日
Adaptive Regularization for Large-Scale Sparse Feature Embedding Models
Arxiv
0+阅读 · 2025年11月9日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top