自监督学习(SSL)应用于视觉变换器(ViTs),通过允许这些模型从未标记的数据中学习有用的特征表示。在传统的监督学习中,模型是在标记的数据集上训练的,这可能代价高昂且耗时。SSL 通过使 ViTs 直接从输入图像中学习,而无需注释,解决了这一局限性。这是通过各种技术来实现的,这些技术帮助模型从未标记的数据中推断出有用的模式和结构。
实现 ViTs 自监督学习的一种常见方法是使用对比学习或遮罩图像建模。例如,在遮罩图像建模中,图像的部分区域被故意隐藏(遮罩),模型的任务是根据可见部分预测缺失的区域。这鼓励 ViT 学习整个图像上下文的丰富表示。另一种流行的方法是 BYOL(自引导你的潜在表示),该方法将同一图像的两个增强版本输入到两个相同的网络中,模型学习从其中一个表示预测另一个表示。这些技术对 ViTs 非常有效,因为它们利用了模型捕捉长程依赖和数据中复杂关系的能力。
将自监督学习集成到 ViTs 中,不仅有助于提高它们在下游任务上的性能,还使模型在数据需求方面更加高效。通过在大量未标记的数据上进行训练,开发者可以利用 ViTs 的能力,而不必过度依赖标记数据集。这种方法在医学成像或遥感等标签稀缺的领域特别有用。因此,自监督学习增强了视觉变换器的灵活性和鲁棒性,使其在各种实际应用场景中更具适用性。