OmniGlot数据集由包含50种国际语言的样本组成。每种语言中的每个字母只有20个样本。 这被认为是MNIST的“转置”,其中类的数量较少(10个),训练样本数量较多。在OmniGlot中类的数量是非常多的,而每个类的样本数是很少的。 图2.0来自OmniGlot数据集的一些样本 OmniGlot将用作我们的小样本分类数据集,以便能够从少数样本中识别出许多不同的类。 结论 我们是在小样本学习下进行研究,并尝试使用一种称为孪生网络的神经网络架构来解决这一问题。与此同时,我们还讨论了区分输入对的损失函数。 同时,我们还实施了这样的架构,并对MNIST进行训练,然后在OmniGlot上进行了预测。 (责任编辑:本港台直播) |