深度学习模型中的过拟合发生在模型在训练数据上表现得非常好,但无法推广到未见过的数据。简单来说,这意味着模型记住了训练集,而不是学习适用于更广泛的潜在模式。这通常发生在模型相对于可用数据量过于复杂时。例如,如果你有一个层数和参数都很多的神经网络,它可能会捕捉到训练数据中的噪声,而不仅仅是反映真实关系的信号。
导致过拟合的一个常见情形是小数据集和非常强大的模型结合在一起。例如,如果你试图对猫和狗的图像进行分类,但每个类别只有100张图片,那么一个深度神经网络可以很容易地学会识别这些图像中的特定特征,同时忽略适用于新、未见过的图像的一般特征。这可能导致在训练集上准确率很高,但在验证集或测试集上表现很差,因为模型无法适应新数据中的变化。
为了应对过拟合,开发者可以使用几种技术。一种方法是简化模型,或者通过减少层数和参数,或者使用诸如 dropout 的技术,该技术在训练期间随机“丢弃”单元,以防它们与训练数据过于紧密地共同适应。数据增强也可以是有益的,通过旋转或缩放等变换来人工扩展训练数据,从而使模型接触到更多的变化。最后,采用早停法——在验证集上的表现开始下降时停止训练——可以帮助确保模型保持对新输入的泛化能力。