“神经网络以自我监督的方式进行训练,通过使用数据本身创建伪标签或学习任务。自我监督学习不依赖于显式标记的数据集,而是利用数据中固有的结构和特征来推导标签。例如,给定一组图像,自我监督学习的方法可能包括训练网络来预测图像的缺失部分或确定两个增强版本的图像是否来自同一个原始来源。通过这种方式,模型在没有人工注释的情况下学习识别数据中的有意义模式。
自我监督学习中的一个常见策略是创建替代任务。例如,在计算机视觉领域,可以使用一种称为“对比学习”的技术。在这种方法中,模型被训练来区分相似和不相似的图像对。通过对图像进行增强——例如裁剪、旋转或改变颜色——然后将相同修改后的图像配对,神经网络学习编码和区分这些变化,最终提高对底层数据分布的理解,而无需标签信息。这种训练在大量未标记的数据上进行,使网络能够开发出强大的特征,这些特征可以在后续任务中进行微调。
在自然语言处理领域,一个流行的自我监督任务是预测句子中的下一个词或填补缺失的词。例如,BERT和GPT等模型利用庞大的文本语料库来学习单词和短语之间的上下文关系。在训练过程中,它们随机屏蔽句子中的单词,并要求模型根据周围的上下文预测这些屏蔽的单词。这种方法不仅为训练提供了丰富的数据来源,还使模型能够捕捉语义关系和语言结构。一旦训练完成,生成的神经网络就可以用于各种下游任务,例如情感分析或机器翻译,从而展示自我监督学习的有效性。”