本条目存在以下问题,请协助 改善本条目或在 讨论页针对议题发表看法。
此条目需要 精通或熟悉相关主题的编者参与及协助编辑。 (2019年12月11日) 请邀请适合的人士改善本条目。更多的细节与详情请参见讨论页。 |
|
在机器学习中,提前停止(英语:early stopping)是一种在使用诸如梯度下降之类的迭代优化方法时,可对抗过拟合的正则化方法。这些迭代优化方法在每轮迭代过程中,都会使得模型更好地与训练集拟合。在某个节点之前,更好地拟合训练集使得模型在训练集之外的数据上表现得更好;但在该节点之后,更好地拟合训练集会增大泛化误差。提前停止相关规则给出停止迭代的条件,以便在模型开始过拟合之前停止迭代优化。提前停止相关规则已被用于多种机器学习方法。