Processing math: 10%
  • 中国精品科技期刊
  • CCF推荐A类中文期刊
  • 计算领域高质量科技期刊T1类
高级检索

DL-MAML:一种新的蝴蝶物种自动识别模型

赵戈伟, 许升全, 谢娟英

赵戈伟, 许升全, 谢娟英. DL-MAML:一种新的蝴蝶物种自动识别模型[J]. 计算机研究与发展, 2024, 61(3): 674-684. DOI: 10.7544/issn1000-1239.202220860
引用本文: 赵戈伟, 许升全, 谢娟英. DL-MAML:一种新的蝴蝶物种自动识别模型[J]. 计算机研究与发展, 2024, 61(3): 674-684. DOI: 10.7544/issn1000-1239.202220860
Zhao Gewei, Xu Shengquan, Xie Juanying. DL-MAML:An Innovative Model for Automatically Identifying Butterfly Species[J]. Journal of Computer Research and Development, 2024, 61(3): 674-684. DOI: 10.7544/issn1000-1239.202220860
Citation: Zhao Gewei, Xu Shengquan, Xie Juanying. DL-MAML:An Innovative Model for Automatically Identifying Butterfly Species[J]. Journal of Computer Research and Development, 2024, 61(3): 674-684. DOI: 10.7544/issn1000-1239.202220860
赵戈伟, 许升全, 谢娟英. DL-MAML:一种新的蝴蝶物种自动识别模型[J]. 计算机研究与发展, 2024, 61(3): 674-684. CSTR: 32373.14.issn1000-1239.202220860
引用本文: 赵戈伟, 许升全, 谢娟英. DL-MAML:一种新的蝴蝶物种自动识别模型[J]. 计算机研究与发展, 2024, 61(3): 674-684. CSTR: 32373.14.issn1000-1239.202220860
Zhao Gewei, Xu Shengquan, Xie Juanying. DL-MAML:An Innovative Model for Automatically Identifying Butterfly Species[J]. Journal of Computer Research and Development, 2024, 61(3): 674-684. CSTR: 32373.14.issn1000-1239.202220860
Citation: Zhao Gewei, Xu Shengquan, Xie Juanying. DL-MAML:An Innovative Model for Automatically Identifying Butterfly Species[J]. Journal of Computer Research and Development, 2024, 61(3): 674-684. CSTR: 32373.14.issn1000-1239.202220860

DL-MAML:一种新的蝴蝶物种自动识别模型

基金项目: 国家自然科学基金项目(62076159,12031010,61673251);中央高校基本科研业务费交叉研究项目(GK202105003);国家动物标本资源库项目
详细信息
    作者简介:

    赵戈伟: 1996年生. 硕士. 主要研究方向为机器学习、深度学习、目标检测

    许升全: 1967年生. 博士,教授,博士生导师. 主要研究方向为昆虫分类学、昆虫系统学、生物信息学

    谢娟英: 1971年生. 博士,教授,博士生导师. CCF高级会员. 主要研究方向为机器学习、数据挖掘、生物医学大数据分析

    通讯作者:

    谢娟英(xiejuany@snnu.edu.cn

  • 中图分类号: TP181

DL-MAML:An Innovative Model for Automatically Identifying Butterfly Species

Funds: This work was supported by the National Natural Science Foundation of China (62076159, 12031010, 61673251), the Fundamental Research Funds for the Central Universities (GK202105003), and the National Animal Collection Resource Center.
More Information
    Author Bio:

    Zhao Gewei: born in 1996. Master. His main research interests include machine learning, deep learning, and object detection

    Xu Shengquan: born in 1967. PhD, professor, PhD supervisor. His main research interests include entomological taxonomy, insect systematics, and bioinformatics

    Xie Juanying: born in 1971. PhD, professor, PhD supervisor. Senior member of CCF. Her main research interests include machine learning, data mining, and biomedical big data analyses

  • 摘要:

    蝴蝶种类成千上万,每种蝴蝶都与一定植物密切相关,研究蝴蝶种类自动识别有重要意义. 野外环境下的蝴蝶物种识别研究受制于现有数据集蝴蝶种类较少,每类样本(图像)数量较少,使基于机器学习的蝴蝶种类识别面临泛化推广难的挑战. 另外,野外环境下的蝴蝶翅膀遮挡使分类特征学习面临挑战. 因此,提出基于元学习的蝴蝶物种自动识别新模型DL-MAML(deep learning advanced model-agnostic meta-learning),实现野外环境下的任意蝴蝶种类识别. 首先,DL-MAML模型采用L2正则改进经典元学习算法MAML(model-agnostic meta-learning)的目标函数和模型参数更新方法,并对MAML增加了2层特征学习模块,避免模型陷入过拟合风险,解决现有野外环境下蝴蝶物种识别面临的泛化推广困难;其次,采用ResNet34深度学习模型提取蝴蝶分类特征,对图像进行表征预处理,作为DL-MAML模型元学习模块的输入,克服其特征提取不足的缺陷,以及野外环境下蝴蝶翅膀遮挡带来的分类特征学习困难. 大量消融实验以及与同类模型的实验比较表明,DL-MAML算法学习获得的初始模型参数对蝴蝶新类识别具有很好的效果,优于MAML和其他同类模型,对野外环境下的蝴蝶种类识别很有效,使利用现有野外环境下的蝴蝶数据集构造通用且完全的蝴蝶物种识别系统成为可能.

    Abstract:

    There are tens of thousands of butterfly species. Each butterfly species is closely related to a specific type of plants. It is significant to study butterfly species automatic identification. However, it is very challenging to study butterfly species recognition via the images taken in the field environments. One reason is that there are small number of butterfly species in the existing datasets compared with the reported species in the world. The other reason is that the number of samples (images) of each butterfly species is limited in the datasets. These situations make it challengeable to train a general system for butterfly species identification via machine learning algorithms. In addition, butterfly wings are always folded in the images taken in the field environments, which make it challengeable to learn butterfly classification features, which further make it difficult to study butterfly species recognition using machine learning techniques. Therefore, meta-learning is introduced to address the challenges, and DL-MAML (deep learning advanced model-agnostic meta-learning) algorithm is proposed for identifying the butterfly species using available images taken in the field environment. DL-MAML introduces a L2 regularization term to the objective function and the parameter updating of the meta-learning MAML while introducing ResNet34 deep learning model to extract butterfly features and plus two more convolution layers to the MAML model to avoid over-fitting. The extensive experiments including ablation experiments and comparison with available meta-learning models demonstrate that the initial model parameters obtained by DL-MAML algorithm are effective to identify new species butterflies. DL-MAML is effective in identifying butterfly species using images taken in the field environments, which make it possible to construct the general and complete butterfly species identification system using available butterfly images from limited categories.

  • 蝴蝶分类的依据是翅膀背和腹面的颜色、花纹和图案. 目前,全球大约有18000种蝴蝶. 蝴蝶与植物密切相关,是环境指示昆虫,对评估生态系统平衡具有重要意义. 传统蝴蝶物种识别依赖于昆虫学家的知识和经验,需要将野外采集的蝴蝶制作成标本,费时费力. 野外环境下的蝴蝶物种识别,不需要制作蝴蝶标本,直接依据野外环境下拍摄的蝴蝶照片进行蝴蝶种类识别,本质上是目标检测任务,包括蝴蝶(目标)位置检测和分类,但比普通目标检测更具有挑战性. 因为普通的目标检测,目标往往属于不同的大类,分类容易;而野外环境下的蝴蝶物种识别的分类任务是细粒度的分类,目标同属蝴蝶大类,远比普通目标检测问题中的目标分类困难. 然而,深度学习技术的飞速发展,为目标检测任务提供了新的理论和技术,并使野外环境下的蝴蝶物种识别成为可能[1-5]. 尽管如此,野外环境下的蝴蝶种类识别还面临蝴蝶类别标签严重依赖于专家知识,数据集的获得非常困难,现有数据集的蝴蝶种类和样本数量有限,未涵盖所有蝴蝶种类,使学习获得的蝴蝶种类分类识别系统的泛化推广非常受限,无法用于新的蝴蝶类别识别.

    元学习(meta-learning)通过挖掘不同学习任务的学习方法论的共性,实现学习方法论的学习目的. 因此,本文借助元学习的方法论学习优势,针对现有野外环境下蝴蝶数据集包含蝴蝶种类较少,未能涵盖所有蝴蝶种类,致使蝴蝶分类识别系统的泛化性受限问题,提出基于元学习的蝴蝶种类识别,并改进元学习的目标函数,以期解决当前蝴蝶种类识别研究面临的泛化性挑战. 另外,借助深度学习的极强特征学习能力,改进元学习模型的结构,以期得到可以任意推广的野外环境下的蝴蝶识别系统.

    现有蝴蝶自动识别研究至今已有10多年历史,最初只是基于蝴蝶标本图像的蝴蝶物种识别,随着深度学习的出现和发展,出现了基于野外环境下蝴蝶图像的蝴蝶物种识别研究[2-5].

    基于标本照片的蝴蝶识别研究起源于10年前. 2011年陈渊等人[6]提出改进支持向量机,对7种蝴蝶标本进行自动识别. 2012年Wang等人[7]使用基于内容的图像检索方法,对蝴蝶标本图像进行特征提取并进行分类识别. 2013年Kaya等人[8]提出基于极限学习机和Gabor滤波器的新方法,用于蝴蝶物种识别. 2014年Kaya等人[9]采用灰度共生矩阵和局部二进制模式提取特征,用极限学习机识别蝴蝶标本图像,分别得到98.25%和96.45%的识别准确率. 2014年Kayci等人[10]利用GLCM(grey-level co-occurrence matrix)提取蝴蝶翅膀表面纹理特征,用MLR(mixed logistic regression)对蝴蝶标本图像进行分类,达到96.3%的分类准确率. 2015年Ertuğrul等人[11]通过结合极限学习机和Law纹理能量测度技术来识别蝴蝶标本图像. 2018年Li等人[12]采用多尺度曲率直方图和图像块灰度共生矩阵提取特征,设计了一种加权K近邻分类器对蝴蝶进行识别. 2020年Lin等人[13]提出能提取蝴蝶细粒度特征的跳跃连接卷积神经网络,对包含56种蝴蝶的24836张标本进行分类,准确率达到93.36%.

    基于生态照的蝴蝶自动识别研究,源于2018年的第3届中国数据挖掘竞赛暨国际首次蝴蝶识别大赛. 谢娟英等人[1]为竞赛提供了一个包含蝴蝶标本照和生态照的数据集,其中生态照有1425张,共111种;并利用Faster R-CNN为竞赛实现了一个baseline[2]. 2020年Almryad等人[14]创建了一个包含104类野外环境中蝴蝶图像的数据集,其中共有44659张图像数据,但许多物种都只有很少量的图像样本,因此,他们选择了其中的10类蝴蝶,共17769张图像用于实验,利用卷积神经网络进行蝴蝶种类识别. 2020年Xin等人[15]提出了一个结合压缩激励模块和空间注意力模块的分类网络对野外环境中的30类蝴蝶图像进行分类. 2021年Xie等人[4]针对蝴蝶生态照数据集类别分布不平衡问题,提出了一种新的数据集划分方法和数据增强技术,采用RetinaNet取得了当时基于生态照的蝴蝶物种识别的最好结果. 另外,谢娟英等人[3]通过加入注意力机制改进经典目标检测算法RetinaNet,对野外环境中的蝴蝶进行识别,取得了很好的识别效果,并发现结构差异是引起误识的主要原因. 2022年,Xie等人[5]提出了基于人类视觉机制的野外环境下蝴蝶识别系统KSRFB-Net,取得迄今为止最好的蝴蝶物种识别效果.

    然而,现有蝴蝶物种自动识别研究,无论基于蝴蝶标本还是基于野外环境下的蝴蝶图像,涉及的蝴蝶种类均较少. 尽管蝴蝶标本的种类相对较全,但是基于标本的蝴蝶自动识别研究涉及的种类也不多,这是由于蝴蝶分类是非常具有挑战性的细粒度分类,每种蝴蝶标本照片的数量非常有限,无法满足机器学习,特别是深度学习需要的训练样本,无法避免过拟合,从而无法实现蝴蝶多类别分类. 野外环境下的蝴蝶物种自动识别还面临数据收集和标注极为困难的挑战,研究涉及的蝴蝶种类更少,每类蝴蝶的样本量也很有限,甚至有的种类仅一张照片. 因此,蝴蝶物种自动识别是一个小样本分类. 由于野外环境下的蝴蝶自动识别不需要制作蝴蝶标本,且与生物多样性、生态系统平衡等密切相关,研究会更有意义,因此,本文关注野外环境下的蝴蝶物种自动识别.

    传统机器学习往往针对某一具体学习任务,通过训练数据学习分类模型,在样本量较多的任务中很成功,但样本量较小时,往往由于学习不足而使模型性能较差[16],深度学习更是依赖于大量训练数据[17]. 小样本学习(few-shot learning)作为机器学习的一个分支,通过少量样本进行学习[18]. 2015年Koch等人[19]提出了一种学习孪生神经网络的方法,采用独特的结构对输入之间的相似性进行度量,实现了少量样本下的学习. 2016年Vinyals等人[20]采用基于深度神经特征的度量学习,利用外部记忆增强神经网络,提出了网络学习新框架,并定义了one-shot learning问题. 2017年Ravi等人[21]提出一个基于长短期记忆的学习机模型学习精确的优化算法,在少样本状态下训练另一个神经网络分类器,验证了元学习模型在小样本学习领域的优越性能. 2017年Finn等人[22]提出一种与模型无关的元学习算法,兼容任何经过梯度下降训练的模型,适用于各种不同的学习问题,在小样本分类基准数据集表现出最先进的性能.

    鉴于元学习在小样本分类中的优越性能,针对现有野外环境下的蝴蝶种类识别面临的样本类别和样本量少、样本获取和样本类别标注困难的挑战,提出基于元学习的蝴蝶种类识别,以解决现有野外环境下的蝴蝶种类识别模型面临的泛化推广性能差的挑战. 另外,为了解决野外环境下的蝴蝶种类识别面临的蝴蝶分类特征学习困难问题,提出采用深度学习来提取蝴蝶分类特征,作为元学习的数据预处理步骤,并在元目标函数引入正则化项避免过拟合,从而得到深度学习结合元学习的野外环境下蝴蝶种类识别系统. 大量实验测试表明,提出的模型对野外环境下的蝴蝶识别具有不错的效果,成功解决了蝴蝶种类识别系统的泛化问题,为蝴蝶物种自动识别开辟了新途径.

    相比于传统意义上的机器学习(包括深度学习),元学习是更高层次的学习,即学会学习,它不同于传统机器学习,不再聚焦于某个具体的学习任务[23]. 元学习的学习对象由数据提升为任务,挖掘不同学习任务共有的方法论内涵,实现学习不同任务的学习方法论,以期进行方法论知识的迁移,减少超参调制,在少量数据条件下,获得良好的学习效果,提高系统的性能[24]. 元学习方法可以在少量训练样本的情况下,快速适应一个新的分类任务,为小样本分类提供了有效手段,为野外环境下的蝴蝶种类识别提供了新的解决方案. 经典机器学习需要大量的训练数据支撑[25],在某个特定任务上训练模型,关注点是模型在当前任务上的表现. 元学习关注模型对新任务的快速适应能力,因此,元学习非常适合用来解决当前野外环境下蝴蝶物种自动识别任务面临的挑战.

    元学习通常被解释为学会学习的学习[26],其目的是通过在多个任务上学习,掌握快速学习的能力,关注点不再是模型在某个任务上的表现,而是在多个任务上的学习能力. 因此,很合适用来解决传统神经网络的泛化性能不足,及其对新类别适应性较差的问题.

    元学习过程包含元训练(meta train)阶段和元测试(meta test)阶段. 元学习的基本单元是任务,不再是面向某一任务的具体数据. 元学习的训练任务集合通常包含1组或多组任务,每个任务又被分为support set和query set. 假设元训练集为Dmeta-train,元测试集为Dmeta-testDmeta-trainDmeta-test的数据无类别交叉,即Dmeta-trainDmeta-test=. 元训练阶段的任务Ttraini采样于Dmeta-train,元测试阶段的任务Ttestj采样于Dmeta-test. 元学习过程的数据划分如图1所示.

    图  1  元学习过程的数据划分
    Figure  1.  Data division of the meta-learning process

    MAML(model-agnostic meta-learning)[22]是一种基于初始参数的元学习方法,其基本思想是:通过学习相似任务的分布来寻找一个更好的初始参数,使得在良好的初始参数情况下,模型可以用较少的梯度更新,快速学习新任务. 因此,对于一个新任务,模型不需要从随机初始化的权重开始,而是可以从最优权重开始,仅需很少的步骤就可以达到收敛,且不需要太多数据来进行训练. 具体描述是:模型在一个新任务(task)上,使用基于梯度的学习规则进行微调来学习一个模型,使这个基于梯度的学习规则能在从数据集D的分布P(T)抽取的新任务上快速收敛[22].

    MAML算法包括内、外2层循环,内循环试图学习每个任务的最优参数,外循环计算每个任务相对于其最优参数的损失,从而更新随机初始化的模型参数. 即内循环学习特定任务的参数,使用梯度下降最小化损失;外循环更新模型参数,减少几个任务间的期望损失,将更新后的模型参数作为相关任务的更优初始参数.

    MAML算法的训练模型由参数化函数{f_{\boldsymbol{\theta }}}表示,其中{\boldsymbol{\theta }}为参数. 元训练期间,从 {D_{{\text{meta-train}}}} 中采样任务T_i^{{\text{train}}},使用T_i^{{\text{train}}}的support set中的K个样本和相应损失函数{L_{T_i^{{\text{train-sup}}}}}的反向传播来训练模型,得到内循环参数{\boldsymbol{\theta }}_i^1,这里{\boldsymbol{\theta }}_i^1中上标1表达该参数是内循环参数,然后在来自T_i^{{\text{train}}}的query set新样本上测试参数{\boldsymbol{\theta }}_i^1. 来自T_i^{{\text{train}}}的query set新数据的测试损失为元学习过程任务T_i^{{\text{train}}}的训练误差,依据该误差,改进外循环模型{f_{\boldsymbol{\theta }}}. 在训练阶段,当训练相同batch(batch size设置为8)中的新任务 T_k^{{\text{train}}}(k \ne i) 时,模型的初始参数相同,也为{\boldsymbol{\theta }}.

    MAML内循环更新的参数向量{\boldsymbol{\theta }}_i^1使用任务T_i^{{\text{train}}}的support set的1个或多个梯度下降更新来计算. 仅考虑在T_i^{{\text{train}}}的support set的一个梯度下降的计算公式如式(1)所示,超参数\alpha 为内循环参数更新步长,即内循环参数学习率.

    {\boldsymbol{\theta }}_i^1 = {\boldsymbol{\theta }} - \alpha {\nabla _{\boldsymbol{\theta }}}{L_{T_i^{{\text{train-}}\sup }}}({f_{\boldsymbol{\theta }}}) . (1)

    利用当前任务T_i^{{\text{train}}}的query set中的样本损失,优化当前任务T_i^{{\text{train}}}的support set产生的{f_{{\boldsymbol{\theta }}_i^1}}来训练模型参数{\boldsymbol{\theta }}. 因此,元目标如式(2)所示:

    \mathop {\min }\limits_{_{\boldsymbol{\theta }}} \sum\limits_{T_i^{{\text{train}}} \sim P(T)} {{L_{T_i^{{\text{train}}}}}({f_{{\boldsymbol{\theta }}_i^1}})} = \sum\limits_{T_i^{{\text{train}}} \sim P(T)} {{L_{T_i^{{\text{train-qry}}}}}({f_{{\boldsymbol{\theta }}-\alpha {\nabla _{\boldsymbol{\theta }}}{L_{T_i^{{\text{train-}}\sup }}}({f_{\boldsymbol{\theta }}})}})} . (2)

    对训练模型{f_{\boldsymbol{\theta }}}的优化在模型参数{\boldsymbol{\theta }}上进行,使用更新{\boldsymbol{\theta }}_i^1的模型参数来计算目标. 实际上,MAML提出的方法旨在优化模型参数,以便新任务上的1个或少量梯度更新步骤,便产生最大有效的行为. 跨任务的元优化通过随机梯度下降(stochastic gradient descent, SGD)实现. 因此,模型参数{\boldsymbol{\theta }}的更新公式如式(3)所示,其中\beta 是元步长,即MAML外循环参数学习率.

    {\boldsymbol{\theta }} \leftarrow {\boldsymbol{\theta }} - \beta {\nabla _{\boldsymbol{\theta }}}\sum\limits_{T_i^{{\text{train}}} \sim P(T)} {{L_{T_i^{{\text{train-}} {\text{qry}}}}}({f_{{\boldsymbol{\theta }}_i^1}})} . (3)

    在MAML训练过程的内循环中通过T_i^{{\text{train}}}的support set产生的误差,采用式(1)由{\boldsymbol{\theta }}得到{\boldsymbol{\theta }}_i^1;外循环则通过T_i^{{\text{train}}}中的query set,采用式(3)计算在{\boldsymbol{\theta }}_i^1参数下的损失,用一个batch任务的损失更新参数{\boldsymbol{\theta }}.

    MAML元学习算法能通过训练少量样本实现在新任务上的快速学习,但是由于训练样本量少,网络在元训练过程中存在过拟合风险,使在元测试阶段对新类识别率低. 为了降低网络在元训练过程中的过拟合,提升模型在元测试阶段对新类别的识别能力,本文对MAML算法的元目标如2.2节式(2)中添加L2正则化项,得到新的元目标,如式(4)所示. 其中\lambda 为超参数,取值范围为\lambda \in \left[ {0,1} \right].

    \begin{split} &\mathop {\min }\limits_{\boldsymbol{\theta }} \sum\limits_{T_i^{{\text{train}}} \sim P(T)} {{L_{T_i^{{\text{train}}}}}({f_{{\boldsymbol{\theta }}_i^1}})} = \\ &\sum\limits_{T_i^{{\text{train}}} \sim P(T)} {{L_{T_i^{{\text{train-qry}}}}}({f_{{\boldsymbol{\theta }} - \alpha {\nabla _{\boldsymbol{\theta }}}{L_{T_i^{{\text{train-}}\sup }}}({f_{\boldsymbol{\theta }}})}})} + \frac{\lambda }{2}{\left\| {\boldsymbol{\theta }} \right\|^2}. \end{split} (4)

    根据式(4)的元目标更新模型参数{\boldsymbol{\theta }},则{\boldsymbol{\theta }}的更新公式如式(5)所示:

    {\boldsymbol{\theta }} \leftarrow {\boldsymbol{\theta }} - \beta {\nabla _{\boldsymbol{\theta }}}\left(\sum\limits_{T_i^{{\text{train}}} \sim P(T)} {{L_{T_i^{{\text{train-qry}}}}}({f_{{\boldsymbol{\theta }}_i^1}})} + \frac{\lambda }{2}{\left\| {\boldsymbol{\theta }} \right\|^2} \right). (5)

    MAML算法将图像直接输入网络进行训练,然而,图像经过深层卷积后的特征具有更高级的语义[27],更能体现图像特征,因此,提出DL-MAML(deep learning advanced model-agnostic meta-learning)算法,增加独立的特征提取模块,并对MAML结构增加2个卷积模块,同时采用2.3节改进MAML算法的元目标和参数更新.

    MAML算法对小样本的学习效率、准确率及收敛速度提升都相当可观[22],其将图像直接输入网络(4个卷积模块和1个Linear分类器)进行训练来完成分类任务[22]. 然而,4个卷积模块和1个Linear分类器组成的网络层数限制导致图像特征提取能力有限.

    基于深度卷积神经网络的图像分类任务,大量卷积层本质上是提取图像的不同特征. 经过深层卷积后的特征具有更高级的语义,更能体现图像的抽象特征[27]. 因此,提出DL-MAML网络模型,将深度卷积神经网络作为独立的特征提取器来提取图像特征,送入改进的MAML算法的元学习模块进行训练,在整个训练过程中,特征提取器的参数不更新.

    DL-MAML模型的贡献在于:首先,对MAML算法进行改进,不仅增加了模型层数,同时对MAML算法的元目标函数增加了L2正则项,优化元目标模型参数,得到DL-MAML模型的元学习模块. 其次,DL-MAML模型的元学习模块之前,增加了特征提取模块,使元学习模块能更多地关注到图像的有用特征,从而在模型初始化参数学习方面更有针对性.

    DL-MAML模型如图2所示,包括特征提取模块和元学习模块2部分. 其中,特征提取模块的主要任务是提取图像特征,网络训练过程中,特征提取模块的参数不更新,因此,特征提取模块可看作是对输入图像的编码. 元学习模块的参数在网络训练过程中依据2.3节所述的改进MAML算法,即式(5)不断更新模型参数,网络训练最终得到元学习模块的初始化参数{\boldsymbol{\theta }}.

    图  2  DL-MAML模型
    Figure  2.  DL-MAML model

    DL-MAML模型的元学习模块对MAML算法进行了2点改进:1)增加网络层数,提高网络的特征提取能力;2)元训练的元目标函数中增加L2正则化项,如式(4)所示,减少网络对训练数据的过拟合.

    Finn等人[22]提出的MAML算法网络结构图如图3所示,包含4个卷积模块和1个Linear分类器. 每个卷积模块由卷积层(卷积层参数kernel为3×3,stride为1,padding为0,filters为32)、非线性激活函数ReLU(rectified linear unit)、批量归一化(batch normalization,BN)[28]和最大池化层组成. 前3个卷积模块中的最大池化层大小为2×2,最后1个卷积模块中最大池化层大小为2×1. MAML算法采用式(3)更新网络参数.

    图  3  MAML网络结构
    Figure  3.  Network structure of MAML

    DL-MAML模型的元学习模块在MAML网络基础上增加2个卷积模块,如图4所示,即MAML前4个卷积模块参数保持不变,增加2个由卷积层、非线性激活函数ReLU、批量归一化BN组成的卷积模块,进一步增加元学习模块的特征提取能力. 该元学习模块采用式(5)更新网络参数. 元学习模块增加的第1个卷积模块的卷积层参数kernel为3×3,stride为1,padding为0,filters 为512;第2个卷积模块参数kernel为3×3,stride为1,padding为0,filters为1024.

    图  4  DL-MAML的元学习模块网络结构
    Figure  4.  Network structure of meta-learning module of DL-MAML

    为了兼顾图像的低级和高级抽象特征,选择ResNet[29]网络构建独立的特征提取模块,与原始ResNet不同的是:作为特征提取器,本文使用的ResNet去掉了最后的全连接层(full connection).

    ResNet残差模块,一定程度上解决了网络退化问题,使网络能够提取到图像更高层次的抽象特征,能够关注到输入图像在网络不同层次的特征图信息,从而得到一个融合的特征图. 本文选择ResNet34作为特征提取模块,特征提取器中的残差块如图5所示.

    图  5  DL-MAML特征提取器的ResNet残差块
    Figure  5.  ResNet residual block of DL-MAML’s feature extractor

    损失函数采用式(6)所示的交叉熵损失:

    {L_{T_i^{{\text{train}}}}}({f_\phi }) = \sum\limits_{{x^{(j)}},{y^{(j)}} \sim T_i^{{\text{train}}}} {{y^{(j)}}\ln {f_\phi }({x^{(j)}}) + (1 - {y^{(j)}})\ln (1 - {f_\phi }({x^{(j)}}))} . (6)

    其中{x^{(j)}},{y^{(j)}}是采样于T_i^{{\text{train}}}的输入输出对. 本文所涉及的所有损失计算均采用式(6).

    评价指标以元测试阶段采样自{D_{{\text{meta-test}}}}的任务来测试经过训练的DL-MAML模型的初始化参数. 设任务T_j^{{\text{test}}}\;\left( {j = 1,2, … } \right)采样自{D_{{\text{meta-test}}}},DL-MAML模型在T_j^{{\text{test}}}的support set上经过少量更新后(本文实验设置更新次数为5),在T_j^{{\text{test}}}的query set上测试.

    本文实验为蝴蝶自动识别,即蝴蝶种类分类,采用的评价指标为式(7)所示的在元测试集{D_{{\text{meta-test}}}}采样的所有任务的平均分类准确率Accuracy.

    Accuracy = \frac{1}{M}\sum\limits_{j = 1}^M {Ac{c_j}} \text{,} (7)

    其中M是在元测试集{D_{{\text{meta-test}}}}采样的总任务数,本文M=200, Ac{c_j} 是DL-MAML对任务T_j^{{\text{test}}}的query set的预测准确率,计算方式如式(8)所示:

    Ac{c_j} = \dfrac{{Num_{_{{\text{rec}}}}^j}}{{Num_{{\text{all}}}^j}} \text{,} (8)

    其中Num_{_{{\text{all}}}}^j表示任务T_j^{{\text{test}}}\;\left( {j = 1,2, … } \right)的query set的总样本数,Num_{_{{\text{rec}}}}^j表示对T_j^{{\text{test}}}\;\left( {j = 1,2, … } \right)的query set预测正确的样本数.

    本文采用开源深度学习框架PyTorch1.6.1实现DL-MAML模型,所有实验均使用单GPU加速网络的学习以及训练过程,显卡型号为GeForce RTX 2080Ti.

    实验数据来自谢娟英等人[1-2]2018年发表的蝴蝶生态照片数据集,含有生态照1425张,共111类蝴蝶,其中17种蝴蝶的生态照片只有1张,多数种类的生态照片在20张以内,每类蝴蝶至少有1张生态照,最多有121张. 去除仅含有1张生态照的蝴蝶样本,用于实验的数据共有1408张蝴蝶生态照片图像,共94类,数据分布如图6所示.

    图  6  蝴蝶生态照样本量分布
    Figure  6.  Sample distribution of butterfly ecological photos

    相比于常见的分类问题,该数据集包含类别多、样本少,属于小样本分类,且各类别样本的分布明显不平衡. 这些特点给分类算法带来挑战,然而本文的元学习实验不存在类别不平衡问题. 另外,本文只关注蝴蝶种类识别,实验中裁掉蝴蝶生态照背景,得到不包含或者包含很少生态背景的蝴蝶生态照图像. 剪裁后的部分蝴蝶生态照如图7所示.

    图  7  蝴蝶生态照部分样本
    Figure  7.  Several samples of butterfly ecological photos

    元训练集和元测试集按照7:3的比例划分94类蝴蝶,元训练集共含65类,元测试集包含29类. 元训练集和元测试集无类别重合. 本文对样本量不足10个的类别,采用随机旋转进行数据增强,将样本量扩充为10个. 所有图像经过随机裁剪并统一调整大小为224(高)×224(宽)×3(通道)的图像.

    本文实验设置参考Vinyals等人[20]提出的实验方案. 元训练阶段,每个任务随机从元训练集 {D_{{\text{meta-train}}}} 选择N个蝴蝶种类(本文N=5),从每个种类采样2 \times K个实例,即每个任务包含2 \times N \times K个实例,使用此N个种类中每个类的K个不同实例组成此任务的support set,则support set包含N \times K个实例,其余N \times K个实例组成此任务的query set. 元测试阶段,每个任务随机从元测试集 {D_{{\text{meta-test}}}} 选择N个蝴蝶种类,每个任务的support set和query set的设置方式与元训练阶段相同. 本文称此种采样数据的方式为N-way K-shot. 其中,5-way 1-shot实验的元测试阶段的数据集设置如图8所示,support set从29个用于测试的蝴蝶种类中随机选择了5类,每类选择1个样本.

    图  8  5-way 1-shot实验的元测试数据集设置
    Figure  8.  Dataset setting of the 5-way 1-shot experiment in meta test

    本文实验的N-way K-shot设置如表1所示,共采用2组:5-way 1-shot,5-way 5-shot. 表1所示的数据集划分的第2,3列表示在元训练与元测试阶段,每个任务包含的样本数量,即每个任务的support set + query set的样本量.

    表  1  不同实验每个任务的数据划分结果
    Table  1.  Data Division Results of Different Experiments for Each Task
    实验设置 元训练样本数量
    (support set + query set)
    元测试样本数量
    (support set + query set)
    5-way 1-shot 5+5 5+5
    5-way 5-shot 25+25 25+25
    下载: 导出CSV 
    | 显示表格

    本节通过实验测试,验证提出的DL-MAML算法的元学习模块的改进元目标函数的正则项权重\lambda 设置的合理性. 实验在本文改进的元学习模块(MAML+2 Modules+L2)进行,分别将\lambda 设置为2,0.5,0.2,0.02进行5-way 1-shot实验,此时\lambda /2分别为1,0.25,0.1,0.01. 实验结果如表2所示.

    表  2  正则项权重测试实验的蝴蝶分类准确率
    Table  2.  Butterfly Classification Accuracy for Testing the Regularization Term Weight Experiments %
    模型 5-way 1-shot
    MAML+2 Modules+L2 (\lambda = 2) 69.92
    MAML+2 Modules+L2 (\lambda = 0.5) 70.40
    MAML+2 Modules+L2(\lambda = 0.2) 72.56
    MAML+2 Modules+L2 (\lambda = 0.02) 71.35
    注:加粗表示最优结果.
    下载: 导出CSV 
    | 显示表格

    表2显示,当\lambda =0.2时,DL-MAML的元学习模块的性能表现最好,因此本文后续实验均设置\lambda =0.2.

    本节通过消融实验验证DL-MAML算法的元学习模块的2处改进(对原始MAML增加卷积模块和改进元目标函数)的有效性,消融实验结果如表3所示.

    表  3  元学习模块消融实验的蝴蝶分类准确率
    Table  3.  Accuracies of Butterfly Classification in Ablation Experiments of Meta Learning Module %
    模型 5-way 1-shot 5-way 5-shot
    MAML 61.04 87.39
    MAML+2 Modules 72.13 87.60
    MAML+L2 72.05 87.96
    MAML+2 Modules+L2 72.56 88.03
    注:加粗表示最优结果.
    下载: 导出CSV 
    | 显示表格

    表3中的MAML为Finn等人[22]使用的模型以及更新策略,也就是式(3)的更新策略;MAML+2 Modules为增加2个卷积模块的模型使用的原始更新策略,即式(3)的更新策略;MAML+L2为使用MAML模型,采用式(5)的更新策略;MAML+2 Modules+L2为增加2个卷积模块的模型使用式(5)的更新策略,即DL-MAML模型的元学习模块.

    实验超参数设置参考Finn等人[22]的设置,实验进行10000 epoch,内循环的学习率\alpha =0.01,外循环学习率\beta =0.001,batch size设置为8,训练阶段每个任务内部进行5次梯度更新,测试阶段每个任务进行5次梯度更新,测试阶段每个任务的分类准确率为5次梯度更新之后的平均准确率. 训练阶段从元训练集 {D_{{\text{meta-train}}}} 采样80000个任务进行训练,测试阶段从元测试集 {D_{{\text{meta-test}}}} 采样200个任务进行测试. DL-MAML的元目标函数的L2正则化项参数\lambda =0.2.

    表3可见,在5-way 1-shot实验中,分别增加卷积模块、改进MAML算法的元目标函数、同时增加卷积模块和改进MAML算法元目标函数这3种策略均显著提高了模型对测试任务的分类准确率. 表3还显示,在5-way 5-shot实验中,无论是增加2个模块,还是给元目标函数增加正则化项,模型对测试任务的准确率都有提升,且同时增加卷积块和在元目标函数中引入正则项所得模型的分类准确率提升最多. 另外,表3还显示,在5-way 1-shot实验中增加卷积块对模型性能的提升比改进元目标函数对模型性能的提升更强,但在5-way 5-shot实验中则相反. 这说明本文改进的MAML元目标函数和参数更新方法在内循环样本更多时,带来的更多参数微调能进一步提升模型性能. 由此可见,本文对MAML的2处改进明显提升了其性能. 但是表3还显示,改进模型在5-way 5-shot实验的分类准确率的提升不及在5-way 1-shot实验的分类准确率的提升明显. 原因是5-way 5-shot采用了更多来自新类别的样本进行测试.

    本节基于DL-MAML模型的元学习模块,采用消融实验验证DL-MAML模型的特征提取模块的性能. 元学习模块参数设置与实验超参数设置与4.4节相同,图像经过特征提取模块之前大小为224×224×3,图像经过特征提取模块之后,图像特征图大小被调整为84(高)×84(宽)×3(通道)的图像.

    另外,将VGG网络作为特征提取器替换DL-MAML模型的特征提取器进行实验比较,验证本文以ResNet网络作为特征提取器的正确性. 实验结果如表4所示,其中“DL-MAML\特征提取”表示没有特征提取模块的改进MAML,“VGG-MAML”表示用VGG网络替换DL-MAML模型的特征提取模块,“DL-MAML”表示本文模型.

    表  4  特征提取模块消融实验的分类准确率
    Table  4.  Classification Accuracies of Feature Extraction Module in Ablation Experiments %
    模型 5-way 1-shot 5-way 5-shot
    DL-MAML\特征提取 72.56 88.03
    VGG-MAML 76.74 88.40
    DL-MAML(本文) 78.42 88.91
    注:加粗表示最优结果.
    下载: 导出CSV 
    | 显示表格

    表4显示,包含特征提取模块的VGG-MAML和本文DL-MAML模型对测试任务的分类准确率都有提升,尤其是在5-way 1-shot实验的分类准确率提升显著,在5-way 5-shot实验的分类准确率有提升但不及前者显著. 这说明DL-MAML模型的特征提取模块对DL-MAML模型的性能提升有积极作用,但本文改进的MAML元目标函数和对原始MAML元学习模块增加的卷积模块的作用也不容忽视,特别是元目标函数和参数更新方法的改进对模型性能影响显著,这在4.4节的消融实验已经得到验证.

    本文4.4节和4.5节实验结果显示,DL-MAML模型相比于MAML算法在蝴蝶分类任务上表现较优. 本节将比较DL-MAML模型与其他小样本分类方法的性能,对比实验结果如表5所示.

    表  5  不同元学习模型对野外环境下蝴蝶的分类准确率
    Table  5.  Accuracies of Different Meta-Learning Models for Classifying Butterfly Species in the Field Environments %
    模型 5-way 1-shot 5-way 5-shot
    matching nets 63.16 84.62
    meta-learner LSTM 60.34 86.34
    MAML 61.04 87.39
    DL-MAML(本文) 78.42 88.91
    注:加粗表示最优结果.
    下载: 导出CSV 
    | 显示表格

    表5所有实验均采用本文数据集以及本文4.1节数据划分方式进行训练与测试. 对于Vinyals等人[20]提出的基于度量的元学习方法matching nets,实验超参数采用原文作者设置,使用余弦相似度度量;对于Ravi等人[21]提出的基于模型的元学习方法meta-learner LSTM,实验超参数采用原文作者设置;MAML算法超参数使用4.4节设置;本文模型DL-MAML超参数使用4.4节设置.

    表5实验结果显示,DL-MAML模型在元测试阶段新任务上的蝴蝶分类准确率优于MAML算法,特别是5-way 1-shot实验的分类准确率提升非常显著,比MAML模型高出17.38个百分点;在5-way 5-shot实验的性能提升虽然不及5-way 1-shot实验,但分类准确率也提升了1.52个百分点. 因此可以说,DL-MAML模型比MAML算法可以得到更好的模型初始化参数以适应新任务,更好地实现了在新任务上的快速学习.

    对比其他小样本分类方法,DL-MAML模型对野外环境下的蝴蝶物种识别也具有明显优势. 尽管matching nets方法在5-way 1-shot实验的性能优于meta-learner LSTM和MAML,但远不及DL-MAML. MAML在5-way 5-shot实验的分类准确率优于matching nets和meta-learner LSTM方法.

    对比DL-MAML与MAML算法可见,DL-MAML的特征提取模块结合了深度网络的特征提取优势来弥补MAML模型的特征提取不足;DL-MAML模型的元学习模块通过添加卷积模块和增加正则项改进了MAML算法的元目标函数和参数更新方法,在提升了MAML算法表现的同时,避免了模型参数过拟合的风险,增强了模型快速适应新类的优点,有效解决了现有机器学习方法在野外环境下蝴蝶识别任务的泛化性问题.

    本文4.3~4.6节所有实验均采用剔除了背景的蝴蝶生态照图像,但是尽管剔除了背景,图像中依然包含部分背景. 本节将在未剔除背景的原始蝴蝶图像数据集进行实验,以测试野外环境下的蝴蝶图像背景对DL-MAML算法性能的影响. 实验结果如表6所示,其中MAML(org)和DL-MAML(org)表示在未剔除背景的蝴蝶生态照片数据集的实验.

    表  6  不同生态照的蝴蝶分类准确率
    Table  6.  Butterfly Classification Accuracies of Different Types of Ecological Images %
    模型5-way 1-shot5-way 5-shot
    MAML(org)48.4568.23
    MAML61.0487.39
    DL-MAML(org)65.2076.94
    DL-MAML(本文)78.4288.91
    下载: 导出CSV 
    | 显示表格

    表6显示,MAML和DL-MAML算法在原始蝴蝶生态图像的蝴蝶分类准确率均比它们在剔除了背景但还含有部分背景的蝴蝶生态图像的分类准确率差10多个百分点. 这说明,野外环境下的蝴蝶图像背景对模型的分类性能有直接影响. 另外,表6实验结果还显示,各模型在5-way 1-shot实验的性能均远不如其在5-way 5-shot实验的性能,说明在元学习获得了学习方法论之后,针对具体任务的参数微调对模型性能的影响很大.

    此外,表6的实验结果还揭示,提出的DL-MAML算法使得图像背景对模型性能的影响显著降低,特别是在5-way 1-shot实验,使用原始图像的元学习模型DL-MAML(org)的蝴蝶分类准确率比使用剪裁背景图像的元学习模型MAML的分类准确率高4.16个百分点;同时,在5-way 5-shot实验,DL-MAML(org)模型的蝴蝶分类准确率比MAML(org)模型高8.71个百分点.

    本文提出了DL-MAML模型,对MAML模型进行改进,增加了深度特征提取模块,同时对MAML的元学习模块增加了2层特征学习模块,并提出了L2正则项修正MAML的元目标函数和模型参数更新方法. 将提出的DL-MAML模型应用于野外环境下的蝴蝶物种识别任务. 消融实验与其他小样本分类模型的实验比较表明,DL-MAML模型极大提升了MAML元学习模型的分类准确率,从新的视角解决了野外环境下蝴蝶识别任务的泛化性问题,从更高的视角(即学会学习)实现了开放环境下的蝴蝶物种识别,使得面对新环境时,只需要简单地训练就可以得到性能很好的野外环境下蝴蝶物种识别模型.

    然而,本文研究重点关注野外环境下的蝴蝶物种识别任务,没有关注野外环境下的蝴蝶位置检测. 如何使用元学习同时实现野外环境下的蝴蝶位置检测和分类,即用元学习解决野外环境下的蝴蝶物种自动识别这一具有挑战性的目标检测(蝴蝶位置发现和种类分类)问题是我们需要进一步研究的问题.

    作者贡献声明:赵戈伟负责完成实验并撰写论文初稿;许升全提供数据,提出指导意见修改论文;谢娟英提出算法思路、实验方案,并负责撰写和修改论文.

  • 图  1   元学习过程的数据划分

    Figure  1.   Data division of the meta-learning process

    图  2   DL-MAML模型

    Figure  2.   DL-MAML model

    图  3   MAML网络结构

    Figure  3.   Network structure of MAML

    图  4   DL-MAML的元学习模块网络结构

    Figure  4.   Network structure of meta-learning module of DL-MAML

    图  5   DL-MAML特征提取器的ResNet残差块

    Figure  5.   ResNet residual block of DL-MAML’s feature extractor

    图  6   蝴蝶生态照样本量分布

    Figure  6.   Sample distribution of butterfly ecological photos

    图  7   蝴蝶生态照部分样本

    Figure  7.   Several samples of butterfly ecological photos

    图  8   5-way 1-shot实验的元测试数据集设置

    Figure  8.   Dataset setting of the 5-way 1-shot experiment in meta test

    表  1   不同实验每个任务的数据划分结果

    Table  1   Data Division Results of Different Experiments for Each Task

    实验设置 元训练样本数量
    (support set + query set)
    元测试样本数量
    (support set + query set)
    5-way 1-shot 5+5 5+5
    5-way 5-shot 25+25 25+25
    下载: 导出CSV

    表  2   正则项权重测试实验的蝴蝶分类准确率

    Table  2   Butterfly Classification Accuracy for Testing the Regularization Term Weight Experiments %

    模型 5-way 1-shot
    MAML+2 Modules+L2 (\lambda = 2) 69.92
    MAML+2 Modules+L2 (\lambda = 0.5) 70.40
    MAML+2 Modules+L2(\lambda = 0.2) 72.56
    MAML+2 Modules+L2 (\lambda = 0.02) 71.35
    注:加粗表示最优结果.
    下载: 导出CSV

    表  3   元学习模块消融实验的蝴蝶分类准确率

    Table  3   Accuracies of Butterfly Classification in Ablation Experiments of Meta Learning Module %

    模型 5-way 1-shot 5-way 5-shot
    MAML 61.04 87.39
    MAML+2 Modules 72.13 87.60
    MAML+L2 72.05 87.96
    MAML+2 Modules+L2 72.56 88.03
    注:加粗表示最优结果.
    下载: 导出CSV

    表  4   特征提取模块消融实验的分类准确率

    Table  4   Classification Accuracies of Feature Extraction Module in Ablation Experiments %

    模型 5-way 1-shot 5-way 5-shot
    DL-MAML\特征提取 72.56 88.03
    VGG-MAML 76.74 88.40
    DL-MAML(本文) 78.42 88.91
    注:加粗表示最优结果.
    下载: 导出CSV

    表  5   不同元学习模型对野外环境下蝴蝶的分类准确率

    Table  5   Accuracies of Different Meta-Learning Models for Classifying Butterfly Species in the Field Environments %

    模型 5-way 1-shot 5-way 5-shot
    matching nets 63.16 84.62
    meta-learner LSTM 60.34 86.34
    MAML 61.04 87.39
    DL-MAML(本文) 78.42 88.91
    注:加粗表示最优结果.
    下载: 导出CSV

    表  6   不同生态照的蝴蝶分类准确率

    Table  6   Butterfly Classification Accuracies of Different Types of Ecological Images %

    模型5-way 1-shot5-way 5-shot
    MAML(org)48.4568.23
    MAML61.0487.39
    DL-MAML(org)65.2076.94
    DL-MAML(本文)78.4288.91
    下载: 导出CSV
  • [1] 谢娟英,曹嘉文,马丽滨,等. 蝴蝶物种自动识别研究的生态照片数据集[J]. 中国科学数据,2019,4(3):193−198

    Xie Juanying, Cao Jiawen, Ma Libin, et al. A dataset of butterfly ecological images for automatic species identification[J]. Chinese Scientific Data, 2019, 4(3): 193−198 (in Chinese)

    [2] 谢娟英,侯琦,史颖欢,等. 蝴蝶种类自动识别研究[J]. 计算机研究与发展,2018,55(8):1609−1618

    Xie Juanying, Hou Qi, Shi Yinghuan, et al. The automatic identification of butterfly species[J]. Journal of Computer Research and Development, 2018, 55(8): 1609−1618 (in Chinese)

    [3] 谢娟英,鲁银圆,孔维轩,等. 基于改进RetinaNet的自然环境中蝴蝶种类识别[J]. 计算机研究与发展,2021,58(8):1686−1704

    Xie Juanying, Lu Yinyuan, Kong Weixuan, et al. Butterfly species identification from natural environment based on improved RetinaNet[J]. Journal of Computer Research and Development, 2021, 58(8): 1686−1704 (in Chinese)

    [4]

    Xie Juanying, Lu Yinyuan, Wu Zhaozhong, et al. Investigations of butterfly species identification from images in natural environments[J]. International Journal of Machine Learning and Cybernetics, 2021, 12(8): 2431−2442 doi: 10.1007/s13042-021-01322-8

    [5]

    Xie Juanying, Kong Weixuan, Lu Yinyuan, et al. KSRFB-Net: Detecting and identifying butterflies in ecological images based on human visual mechanism[J]. International Journal of Machine Learning and Cybernetics, 2022, 13(10): 3143−3158 doi: 10.1007/s13042-022-01585-9

    [6] 陈渊,丰锋,袁哲明. 改进支持向量分类用于蝶类自动鉴别[J]. 昆虫学报,2011,54(5):609−614

    Chen Yuan, Feng Feng, Yuan Zheming. Automatic identification of butterfly species with an improved support vector classification[J]. Acta Entomologica Sinica, 2011, 54(5): 609−614 (in Chinese)

    [7]

    Wang Jiangning, Ji Liqiang, Liang Aiping, et al. The identification of butterfly families using content-based image retrieval[J]. Biosystems Engineering, 2012, 111(1): 24−32 doi: 10.1016/j.biosystemseng.2011.10.003

    [8]

    Kaya Y, Kayci L, Tekin R. A computer vision system for the automatic identification of butterfly species via gabor-filter-based texture features and extreme learning machine: GF+ ELM[J]. TEM Journal, 2013, 2(1): 13−20

    [9]

    Kaya Y, Kayci L, Tekin R, et al. Evaluation of texture features for automatic detecting butterfly species using extreme learning machine[J]. Journal of Experimental & Theoretical Artificial Intelligence, 2014, 26(2): 267−281

    [10]

    Kayci L, Kaya Y. A vision system for automatic identification of butterfly species using a grey-level co-occurrence matrix and multinomial logistic regression[J]. Zoology in the Middle East, 2014, 60(1): 57−64 doi: 10.1080/09397140.2014.892340

    [11]

    Ertuğrul Ö F, Kaya Y, Kaycı L, et al. A vision system for classifying butterfly species by using law’s texture energy measures[J]. International Journal of Biomedical Data Mining, 2015, 1(1): 16−24

    [12]

    Li Fan, Xiong Yin. Automatic identification of butterfly species based on HoMSC and GLCMoIB[J]. The Visual Computer, 2018, 34(11): 1525−1533 doi: 10.1007/s00371-017-1426-1

    [13]

    Lin Zhongqi, Jia Jingdun, Gao Wanlin, et al. Fine-grained visual categorization of butterfly specimens at sub-species level via a convolutional neural network with skip-connections[J]. Neurocomputing, 2020, 384: 295−313 doi: 10.1016/j.neucom.2019.11.033

    [14]

    Almryad A S, Kutucu H. Automatic identification for field butterflies by convolutional neural networks[J]. Engineering Science and Technology, 2020, 23(1): 189−195 doi: 10.1016/j.jestch.2020.01.006

    [15]

    Xin Dongjun, Chen Yenwei, Li Jianjun. Fine-grained butterfly classification in ecological images using squeeze-and-excitation and spatial attention modules[J]. Applied Sciences, 2020, 10(5): 1681 doi: 10.3390/app10051681

    [16]

    Wang Yaqing, Yao Quanming, Kwok J T, et al. Generalizing from a few examples: A survey on few-shot learning[J]. ACM Computing Surveys, 2020, 53(3): 1−34

    [17]

    Chen Sun, Shrivastava A, Singh S, et al. Revisiting unreasonable effectiveness of data in deep learning era [C] //Proc of the IEEE Int Conf on Computer Vision. Piscataway, NJ: IEEE, 2017: 843−852

    [18]

    Hospedales T, Antoniou A, Micaelli P, et al. Meta-learning in neural networks: A survey[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021, 44(9): 5149−5169

    [19]

    Koch G, Zemel R, Salakhutdinov R. Siamese neural networks for one-shot image recognition [C/OL] // Proc of the 32nd Int Conf on Machine Learning. 2015 [2023-04-10].https://www.cs.cmu.edu/~rsalakhu/papers/oneshot1.pdf

    [20]

    Vinyals O, Blundell C, Lillicrap T, et al. Matching networks for one shot learning [C] //Proc of the 30th Int Conf on Neural Information Processing Systems. New York: Curran Associates, 2016: 3637–3645

    [21]

    Ravi S, Larochelle H. Optimization as a model for few-shot learning [C/OL] //Proc of the 5th Int Conf on Learning Representations. 2017 [2023-04-10].https://openreview.net/forum?id=rJY0-Kcll

    [22]

    Finn C, Abbeel P, Levine S. Model-agnostic meta-learning for fast adaptation of deep networks [C]// Proc of the 34th Int Conf on Machine Learning. Brookline, MA: JMLR, 2017: 1126−1135

    [23] 孟德宇,束俊,徐宗本. 从机器学习到元学习的方法论演变[J]. 中国计算机学会通讯,2021,17(8):76−84

    Meng Deyu, Shu Jun, Xu Zongben. Methodological evolution from machine learning to meta-learning[J]. Communications of the CCF, 2021, 17(8): 76−84 (in Chinese)

    [24]

    Thrun S, Pratt L. Learning to Learn: Introduction and Overview [M]. Berlin: Springer, 1998

    [25]

    Krizhevsky A, Sutskever I, Hinton G E. Imagenet classification with deep convolutional neural networks[J]. Communications of the ACM, 2017, 60(6): 84−90 doi: 10.1145/3065386

    [26] 李凡长,刘洋,吴鹏翔,等. 元学习研究综述[J]. 计算机学报,2021,44(2):422−446

    Li Fanchang, Liu Yang, Wu Pengxiang, et al. A survey on recent advances in meta-learning[J]. Chinese Journal of Computers, 2021, 44(2): 422−446 (in Chinese)

    [27] 周飞燕,金林鹏,董军. 卷积神经网络研究综述[J]. 计算机学报,2017,40(6):1229−1251

    Zhou Feiyan, Jin Linpeng, Dong Jun. Review of convolutional neural network[J]. Chinese Journal of Computers, 2017, 40(6): 1229−1251 (in Chinese)

    [28]

    Ioffe S, Szegedy C. Batch normalization: Accelerating deep network training by reducing internal covariate shift [C] // Proc of the 32nd Int Conf on Machine Learning. Brookline, MA: JMLR, 2015: 448−456

    [29]

    He Kaiming, Zhang Xiangyu, Ren Shaoqing, et al. Deep residual learning for image recognition [C] //Proc of the 29th IEEE Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2016: 770−778

  • 期刊类型引用(1)

    1. 张秀再,邱野,沈涛. 基于改进SSD算法的地铁场景小行人目标检测. 计算机研究与发展. 2025(02): 397-407 . 本站查看

    其他类型引用(0)

图(8)  /  表(6)
计量
  • 文章访问数:  162
  • HTML全文浏览量:  21
  • PDF下载量:  81
  • 被引次数: 1
出版历程
  • 收稿日期:  2022-10-08
  • 修回日期:  2023-04-27
  • 网络出版日期:  2023-11-29
  • 刊出日期:  2024-03-01

目录

/

返回文章
返回