少镜头学习中使用的常见架构是Siamese网络。此体系结构由两个相同的子网组成,它们共享相同的权重和参数。Siamese网络背后的主要思想是学习如何通过比较输入对的特征表示来区分它们。它处理两个输入并输出相似性分数,这有助于确定输入是否属于同一类。这在少镜头学习场景中特别有用,在这种场景中,模型必须仅从每个类的几个示例中进行概括。
实际上,Siamese网络获取一对图像,并使用神经网络 (如卷积神经网络 (CNN)) 计算它们的嵌入。嵌入表示低维空间中的图像。在此阶段通常采用对比损失函数,这鼓励网络最小化相似对的嵌入之间的距离,同时最大化不同对的距离。通过这种方式,该模型学习了一个强大的特征表示,该特征表示可以应用于新的、看不见的类,并且只有很少的例子来促进识别。
少镜头学习架构的另一个示例是原型网络。这种架构不是比较对,而是根据可用的示例为每个类派生一个原型。在训练期间,原型网络从其样本中计算每个类的平均嵌入。在推断时,将新样本分配给其原型最接近其嵌入的类。这种方法可能非常有效,因为它使用小数据集的统计特性来做出决策,即使在有限的数据下也能最大限度地提高学习效率,从而很好地与少镜头学习的目标保持一致。连体网络和原型网络一起为开发人员处理涉及少镜头学习的任务提供了强大的方法。