- Objective: - Breadcrumb: # 概念阐释 过度拟合(overfitting),是指模型对于数据集学习得太过详细,以至于包括了异常值和随机噪声,但是对于新的、未见过的数据表现得不好。 过度拟合的主要特征和问题包括: 1. **高训练精度,低测试精度**:模型在训练集上的表现很好,但在测试集[^1]或验证集[^3]上的表现却差很多。(见[[数据集]]) 2. **泛化能力[^2]差**:由于模型过度学习了训练数据的细节和噪声,其泛化能力下降,这意味着它在处理新数据时的表现不佳。 为了避免过度拟合,可以采取以下措施: - **简化模型**:选择更简单的模型或减少模型中的[[weights 权重]](参数)数量。 - **增加数据量**:使用更多的训练数据,以覆盖更广泛的情况。 - **使用[[regularization 正则化]]**:例如L1或L2正则化,通过对模型参数施加约束来限制模型的复杂度。 - **交叉验证**:使用交叉验证来更好地评估模型的泛化能力。 - **剪枝**:在[[决策树]]等算法中使用剪枝技术来减少模型复杂度。 - **早停**:在训练过程中,当验证误差开始增加时停止训练,以避免模型对训练数据过拟合。 # 实例 我们可以把这一现象和应试教育做比较,就好像对学习者进行了题海战术,在题海范围内的题都能非常适应,但是一旦超出了题海范围就不会做了。 # 相关内容 ## 欠拟合 underfitting 模型过于简单,不能充分学习训练数据中的特征和规律时。这通常意味着模型没有很好地捕捉数据的基本结构,因此在训练集和测试集上的表现都不佳。 # 参考资料 [^1]: 测试集test set:测试集是一组独立于模型训练数据的的数据,用来评估模型的泛化能力。 [^2]: 泛化能力Generalization:模型对于新的、未见过的数据的处理能力。泛化能力是模型在实景应用中表现的关键指标。泛化能力差的模型不能很好得适应新的数据。 [^3]: 验证集:通常用于模型选择过程中,帮助设计者调整模型的超参数(如学习率、层数等),并进行模型间的比较和选择。