Processing math: 51%
  • 中国精品科技期刊
  • CCF推荐A类中文期刊
  • 计算领域高质量科技期刊T1类
高级检索

基于图神经网络的小样本学习方法研究进展

杨洁祎, 董一鸿, 钱江波

杨洁祎, 董一鸿, 钱江波. 基于图神经网络的小样本学习方法研究进展[J]. 计算机研究与发展, 2024, 61(4): 856-876. DOI: 10.7544/issn1000-1239.202220933
引用本文: 杨洁祎, 董一鸿, 钱江波. 基于图神经网络的小样本学习方法研究进展[J]. 计算机研究与发展, 2024, 61(4): 856-876. DOI: 10.7544/issn1000-1239.202220933
Yang Jieyi, Dong Yihong, Qian Jiangbo. Research Progress of Few-Shot Learning Methods Based on Graph Neural Networks[J]. Journal of Computer Research and Development, 2024, 61(4): 856-876. DOI: 10.7544/issn1000-1239.202220933
Citation: Yang Jieyi, Dong Yihong, Qian Jiangbo. Research Progress of Few-Shot Learning Methods Based on Graph Neural Networks[J]. Journal of Computer Research and Development, 2024, 61(4): 856-876. DOI: 10.7544/issn1000-1239.202220933
杨洁祎, 董一鸿, 钱江波. 基于图神经网络的小样本学习方法研究进展[J]. 计算机研究与发展, 2024, 61(4): 856-876. CSTR: 32373.14.issn1000-1239.202220933
引用本文: 杨洁祎, 董一鸿, 钱江波. 基于图神经网络的小样本学习方法研究进展[J]. 计算机研究与发展, 2024, 61(4): 856-876. CSTR: 32373.14.issn1000-1239.202220933
Yang Jieyi, Dong Yihong, Qian Jiangbo. Research Progress of Few-Shot Learning Methods Based on Graph Neural Networks[J]. Journal of Computer Research and Development, 2024, 61(4): 856-876. CSTR: 32373.14.issn1000-1239.202220933
Citation: Yang Jieyi, Dong Yihong, Qian Jiangbo. Research Progress of Few-Shot Learning Methods Based on Graph Neural Networks[J]. Journal of Computer Research and Development, 2024, 61(4): 856-876. CSTR: 32373.14.issn1000-1239.202220933

基于图神经网络的小样本学习方法研究进展

基金项目: 国家自然科学基金项目(62271274);宁波市自然科学基金项目(2023J114);宁波市公益性科技计划项目(2023S023)
详细信息
    作者简介:

    杨洁祎: 1999年生. 硕士研究生. CCF学生会员. 主要研究方向为小样本学习、图神经网络、机器学习

    董一鸿: 1969年生. 博士,教授,硕士生导师. CCF会员. 主要研究方向为大数据处理、数据挖掘、人工智能

    钱江波: 1974年生. 博士,教授,博士生导师. CCF高级会员. 主要研究方向为机器学习、模式识别、智能系统

    通讯作者:

    董一鸿(dongyihong@nbu.edu.cn

  • 中图分类号: TP391

Research Progress of Few-Shot Learning Methods Based on Graph Neural Networks

Funds: This work was supported by the National Natural Science Foundation of China (62271274), the Natural Science Foundation of Ningbo (2023J114), and the public welfare Technology Research project of Ningbo (2023S023).
More Information
    Author Bio:

    Yang Jieyi: born in 1999. Master candidate. Student member of CCF. Her main research interests include few-shot learning, graph neural network, and machine learning

    Dong Yihong: born in 1969. PhD, professor, master supervisor. Member of CCF. His main research interests include big data, data mining, and artificial intelligence

    Qian Jiangbo: born in 1974. PhD, professor, PhD supervisor. Senior member of CCF. His main research interests include machine learning, pattern recognition, and intelligent systems

  • 摘要:

    小样本学习(few-shot learning,FSL)旨在利用少量样本学习得到解决问题的模型,为解决应用场景中样本量少或标注样本少的问题. 图神经网络(graph neural network,GNN)由于其在许多应用中的卓越性能引起了极大的关注,许多学者开始尝试利用图神经网络进行小样本学习,基于图神经网络的方法在小样本领域取得了卓越的成绩. 目前与基于图神经网络的小样本学习方法相关的综述性研究较少,缺乏该类方法的划分体系与介绍性工作,因此系统地梳理了当前基于图神经网络的小样本学习的相关工作:概括了小样本学习的图神经网络方法的概念,根据模型的基本思想将其划分为基于节点特征、基于边特征、基于节点对特征和基于类级特征的4类方法,介绍了这4类方法的研究进展;总结了目前常用的小样本数据集和代表性模型在这些数据集上的实验结果,归纳各类方法主要的研究内容和优劣势;最后概述了基于图神经网络的小样本学习方法的应用和面临的挑战,并展望其未发展方向.

    Abstract:

    Few-shot learning (FSL) aims to learn to get a problem-solving model using a small number of samples. Under the trend of training models with big data, deep learning has gained success in many fields, but realistic scenarios often lack sufficient samples or labeled samples. Therefore, FSL becomes a promising research direction at present. Graph neural networks (GNN) have attracted great attention due to their excellent performance in many applications. In view of this, many methods try to use GNN for FSL. Currently there are few review researches related to FSL methods based on GNN, and there is a lack of division system and introductory work on this type of methods. We systematically compose the current work related to FSL based on GNN. The work outlines the basis and concepts of graph methods for FSL, broadly classifies them into four categories of methods based on node-based feature, edge-based feature, node-pair-based feature and class-level-based feature according to the basic ideas of the models. The research progress of the four methods is introduced as well. Then the experimental results of the commonly used few-shot datasets and representative models on these datasets are summarized, as well as the advantages and disadvantages of each type of methods. Finally, current status and challenges of the graph methods for FSL are introduced, and their future directions are prospected.

  • 域名系统(domain name system, DNS)是互联网最重要的基础服务之一,它提供人类可读的域名和其相关的DNS记录之间的映射. 域名由“. ”分隔的字符构成,子域名以父域名结尾,完整的域名被称为完全限定域名(fully qualified domain name, FQDN),其中忽略掉最后的点号时最右边的一组字符被称为顶级域名(top-level domain, TLD),例如com,net,org,cn等,顶级域向下数一级的子域称为二级域(second-level domain, SLD). 顶级域名中不代表一个国家或地区的顶级域名被称为通用顶级域名(generic top-level domain, gTLD). 为了扩展域名系统、增加域名注册者的选择,互联网名称与数字地址分配机构(Internet Corporation for Assigned Names and Numbers, ICANN)推出了新通用顶级域名(new generic top-level domain, new gTLD)计划,自2013年10月的首批授权以来,new gTLD计划已经使上千个新顶级域名,包括使用ASCII字符和不同字母系统的域名加入了互联网的根区(root zone).

    new gTLD为内容发布者(域名注册者)带来了灵活性,使内容发布者能够为其网站创建易于记忆的定制名称. new gTLD还为DNS生态中的利益相关者,如注册机构和注册商提供了新的机会. 近年来,注册new gTLD域名逐渐成了一种潮流,这些new gTLD域名 1日渐增加的使用给互联网带来了新的变化. 已有研究指出,尽管与传统顶级域名相比,new gTLD域名解析量依然存在较大差距,但new gTLD呈现逐年增长的活跃趋势,且大部分注册的域名被投入了实际使用[1]. 但同时域名滥用[2]随之出现,new gTLD域名用于开展恶意行为的情况也越来越多,new gTLD域名成为各种恶意行为的“热土”. 因此,研究new gTLD域名的解析行为将提供有关其使用情况的态势,并进一步促进new gTLD的推广、相关基础设施的加强. 然而,已有研究都集中在注册人的行为[3]或其他安全问题,例如中间人攻击[1,4-6],缺少对于new gTLD域名尤其是恶意域名的解析行为分析;此外由于new gTLD域名的特殊性,已有恶意域名检测方法可能不适用于new gTLD恶意域名的检测. 因此,需要分析new gTLD域名的解析行为,寻找new gTLD恶意域名的重要行为特征,并据此设计new gTLD恶意域名检测方法.

    本文使用包含对815个new gTLD的930万次查询的被动DNS日志,对new gTLD的解析行为进行了深入分析. 同时,在相同测量期内收集了包含所有类型域名的30亿次DNS查询,以便进行比较. 本文首先通过考察查询量、SLD数量和查询失败率来分析new gTLD的活跃状况. 然后从内容复制和基础设施共享等角度探讨了new gTLD域名的承载基础设施. 最后分析了恶意new gTLD域名的行为,发现按承载域名量排序的前5个IP/24网段所承载的域名之中有73.6%是恶意的. 根据上述分析设计了new gTLD恶意域名检测方法.

    本文的主要贡献包括4个方面:

    1)发现每个new gTLD的查询量和对应SLD数量符合重尾分布. 例如,按DNS查询量排名前3的new gTLD合计贡献了48.7%的查询量.

    2)大多数new gTLD域名只将它们的内容复制到1或2个IP/24网段,这些IP/24网段被域名共享,因为有89.1%的域名与其他域名使用相同的IP/24网段,并且new gTLD域名倾向使用云作为内容承载基础设施,导致内容承载基础设施的集中性,即少量的IP/24网段专门承载了大部分域名.

    3)与正常域名相比,恶意域名有独特的行为. 例如请求用户网络空间分布独特、内容承载基础设施更集中(存在某些AS或IP/24承载大量恶意域名)、SLD长度分布偏斜(更短)、对应的FQDN数量更多、每个FQDN的平均查询次数少以及倾向使用默认生存时间(TTL)设置(例如10 min).

    4)基于上述发现设计并实现了一种new gTLD恶意域名检测方法,以new gTLD域名解析行为特征为输入,使用随机森林作为分类器,实现恶意域名的快速识别. 实验结果表明,该方法的准确率可达94%,优于传统恶意域名检测方法.

    在new gTLD的行为方面,已有研究多集中在注册人的行为或安全问题,如域名滥用行为等. Halvorson等人[3]提出了一种自动识别注册目的的方法,并分析了new gTLD域名的注册类型. Chen等人[4-5]刻画了在new gTLD域名时代通过域名碰撞(domain name collision)实现的中间人(man in the middle,MitM)攻击,并讨论了缓解策略. Korczynśki等人[1]对比了new gTLD与传统通用顶级域名的域名滥用行为,发现new gTLD已经成为了恶意行为者的“吸铁石”(a magnet for malicious actors).Pouryousef等人[6]发现在引入new gTLD之后,误植域名(typosquatted domains)的数量增加了几个数量级.

    在恶意域名检测方面已经有许多研究. Hao等人[7-8]利用域名注册信息尝试在发生大量查询之前识别恶意域名. Manadhata等人[9]利用域名-IP映射建立二部图,在已知少量域名标签前提下,使用置信度传播推测其他域名是否为恶意域名. Schüppen等人[10]基于域名文本特征检测DGA产生的恶意域名. Yu等人[11]将域名字符串输入到CNN进行恶意域名检测. Lei等人[12]用二部图建模域名解析行为,用图嵌入学习域名的向量表示,最后用SVM分类. 然而,现有研究仍然缺乏针对new gTLD恶意域名检测的方法.

    本文所使用的被动DNS日志数据集覆盖我国3个主要互联网服务提供商(Internet service provider, ISP). 每条DNS应答对应1条日志记录,每条日志包含用户的BGP(Border Gateway Protocol)前缀、自治系统号(autonomous system number,ASN)、域名、DNS查询类型、所有应答资源记录、TTL和时间戳. 本文使用nTLDStats[13]的列表来识别new gTLD,将ICANN发起的new gTLD计划之后引入的通用顶级域名称为new gTLD,在该计划之前引入的通用顶级域名,例如com,net,info则被标记为传统通用顶级域名.

    为了进行对比分析,同时收集了包括传统通用顶级域名、国家代码顶级域名(country code top-level domain, ccTLD)和new gTLD的所有类型域名共30亿条DNS日志.

    在进行数据预处理时,使用public suffix库[14]把FQDN映射到对应的SLD. 由于数据集不包括应答码(response code),在判断一次查询是否成功时无法直接从NOERROR或NXDOMAIN这样的应答码中进行判断. 因此为了计算查询失败率,采取一种启发式的方法过滤掉大概率是NXDOMAIN的或者无法准确标记的应答. 这里不检查返回的应答IP地址是否正确,而只考虑一次查询是否包含有效的DNS应答. 如果一次查询返回了有效的DNS应答,就把这次查询标记为成功. 例如对某一次A类型查询,如果应答中存在所查询域名的A记录,则认为该次查询成功. 在进行完上述标记之后,对于每个查询类型 QTYPE ,检查数据集中每一个被查询的域名QNAME是否至少成功过1次,将从未成功过的二元组QTYPEQNAME对应的日志过滤掉.

    经过上述预处理之后,获得了9 295 368次对815个new gTLD的611 769个FQDN的查询;作为对比使用的总体数据集则包含约28亿条日志.

    需要说明的是,数据集中所有可能关联到用户的信息均已删除或者匿名化. 特别地,数据集不包含最终用户的IP地址,用户所在网络的BGP前缀也经过匿名化处理. 此外,所有分析以聚合的方式进行统计分析,而不进行任何针对单个用户的分析.

    本节从查询量和域名数量的总览分析new gTLD域名的解析行为,并与非new gTLD域名进行对比. 为了分析new gTLD计划首批授权对顶级域名带来的扩展,首先使用whois来获取数据集中每个顶级域名的创建日期,并收集了547个顶级域名的成功回复. 图1展示了每年创建的顶级域名的数量,可以看出new gTLD快速增长.

    图  1  每年创建的顶级域名个数
    Figure  1.  The number of TLDs created per year

    本节分析各个new gTLD的DNS查询量和SLD的数量,并将它们的分布绘制在对数图中,如图2所示,其中x轴是分别按查询量和SLD排序的顶级域名排名,y轴是相应的查询量或SLD数量.

    图  2  顶级域名对应的查询量和SLD数量分布
    Figure  2.  Distribution of the number of queries and SLDs across TLDs

    图2中可以看到一个重尾分布,表明查询量和注册的域名数量集中在少数的顶级域名上. 事实上,如表1所示,前3个顶级域名吸引了大约一半的与new gTLD相关的查询. 表1也列出了查询失败率,可以看出,不同的new gTLD失败率为1.6%~45.8%,这意味着顶级域名的可靠性存在较大差异,其中help的失败率最低,表明其最为可靠;而win的失效率最高,意味着对其下域名的查询更容易失败,可靠性最差.

    表  1  按查询量排序的前10个新通用顶级域名
    Table  1.  Top 10 New gTLDs Ranked by the Number of Queries %
    顶级域名查询量占比查询失败率
    top31.116.0
    xyz11.119.0
    help6.51.6
    win6.245.8
    link6.12.3
    club5.120.9
    vip4.210.8
    space2.817.4
    online2.19.6
    loan1.93.7
    下载: 导出CSV 
    | 显示表格

    接下来分析域名查询失败量,表2呈现了2种主要的DNS查询类型:A类型和AAAA类型的查询量占比和查询成功率. 为了进行比较,还计算了所有类型的顶级域名(包括传统通用顶级域名、国家代码顶级域名和新通用顶级域名)的成功率. 可以看出,AAAA类型查询的成功率明显较低,且只占了10.4%的查询量,与2012年观察到的情况相似[15]. 此外,new gTLD域名的查询中AAAA类型的查询量占比略大.

    表  2  A类型和AAAA类型查询量占比与查询成功率
    Table  2.  Percentages of the Number of Queries and Success Rates for A and AAAA Queries %
    指标 所有域名 new gTLD域名
    A AAAA A AAAA
    查询量占比 86.2 10.4 84.3 14.8
    查询成功率 93.1 35.8 88.6 25.9
    下载: 导出CSV 
    | 显示表格

    图3进一步分析查询失败量是否集中在少数顶级域名上. 可以看到曲线是一个近似对角线的趋势,这表明new gTLD的失败查询量也集中在少数顶级域名上.

    图  3  顶级域名的查询失败量分布
    Figure  3.  Distribution of the number of failures for TLDs

    综上,在查询量、每个顶级域名的相关SLD数量和查询失败率方面,new gTLD域名的行为呈现重尾分布,并且new gTLD域名的成功率比所有域名低.

    本节分析new gTLD域名的内容承载基础设施. 由于AAAA类型查询在DNS查询中占比较小,而且经常失败,在接下来的分析中使用应答含有IPv4地址的A类型查询.

    通过测量承载每个SLD使用的IP/24网段的数量,考察new gTLD域名的内容在互联网上的复制情况,其分布情况如图4所示,其中按照DNS查询次数对域名进行排序. 图4分析了3组结果,即前1000域名、前10000域名和全部new gTLD域名. 可以看出,流行域名被复制到更多的IP/24网段. 然而,在排名前1000的域名中,只使用一个IP/24网段来承载其内容的域名多达40%;当考虑所有new gTLD域名时,这一占比上升到93.7%. 相比之下,即使是排名第100000的非new gTLD域名(该域名是mattel.com)也在10个IP/24网段上进行复制. 这些结果表明,new gTLD域名的内容复制非常有限.

    图  4  每个SLD使用IP/24网段数量的分布
    Figure  4.  Distribution of the number of IP/24 segments used by each SLD

    进一步分析了这些IP/24网段的内容承载特征. 为此,参考文献[16]定义了2个指标:内容分发潜力(content delivery potential,CDP)和内容垄断指数(content monopoly index,CMI). CDP定义了IP/24网段能服务的域名(即域名解析后得到的目标地址在该IP/24网段中)占比,以此衡量潜在地可以从一个IP/24网段提供的内容数量. 具体地,给定一个SLD集合(记为R),IP/24网段i的CDP计算公式为

    CDPi=|Si||R| (1)

    其中SiR是该IP/24网段承载的SLD集合.

    CMI通过对IP/24网段能服务的所有域名求权重平均值(其中每个域名的权重为能承载该域名的IP/24网段数量的倒数,这样设置权重是因为如果能承载该域名的IP/24网段越多,则该域名越无法体现该IP/24网段的内容垄断性,因此权重越低)衡量一个IP/24网段承载其他IP/24网段所没有的新通用顶级域名的程度. 一个IP/24网段的CMI为

    CMIi=1|Si|jSi1mj (2)

    其中mj是承载SLDjSi的IP/24网段数量. 一个IP/24网段的CMI大,意味着一些new gTLD域名是由该IP/24网段独家提供服务的.

    图5分析了按CDP排序的前15个IP/24网段. 可以看出,除了前2个IP/24网段之外,其他IP/24网段的CDP都相当小. 大约30.3%的SLD可以由第1个IP/24网段提供服务,该网段属于中国电信天翼云(CTCloud). 第2个IP/24网段属于阿里巴巴云,它可以为26.5%的new gTLD的SLD提供服务. 由此可见,new gTLD域名的所有者倾向于将网站外包给云服务进行内容承载,这些域名广泛使用了共享的内容承载基础设施. 另一个观察结果是,这些IP/24网段的CMI值都相当高(接近1),表明new gTLD域名几乎唯一地承载在对应IP/24网段. 这也是符合预期的,因为大多数SLD只使用1个IP/24网段进行内容承载,如图4所示.

    图  5  按照CDP排序前15个IP/24网段的CDP和CMI
    Figure  5.  CDP and CMI of the top 15 IP/24 segments ranked by CDP

    进一步,图6展示了new gTLD域名解析到的IP地址范围分布. 对于一个由多个IP地址承载的域名,选择使用次数最多的IP地址用于作图,以确保y轴取值不超过1. 观察到3条线中每条都有几个突起,再次证实了new gTLD域名的承载服务器集中在某些IP地址范围内. 此外,new gTLD域名和IP地址有不同的集中范围. 这表明,一些内容承载服务商使用少数IP地址承载大部分的域名,而其他服务商则使用一个IP地址池进行内容承载.

    图  6  new gTLD域名和应答IP地址在IPv4地址空间上的分布
    Figure  6.  new gTLD domain and response IP address distribution across IPv4 address space

    为研究new gTLD恶意域名,本文将IP/24网段按其承载的new gTLD域名数量进行排序,并提取前5个网段所承载的new gTLD域名,其中这5个网段对应的自治系统(autonomous system,AS)分别属于Enzu,Leaseweb,Psychz Net,Alibaba等数据中心、云服务提供商,所承载的new gTLD域名对应了约24.3万个FQDN和25.5万次查询,然后使用VirusTotal和360这2个黑名单对域名进行检查,如果这2个黑名单中的任何1个将域名分类为恶意域名,就将该域名标记为恶意域名. 由于域名数量较大,只检查了SLD而没有检查完整的FQDN,最终有1 171个SLD被标记为恶意域名,对应17.9万个FQDN(73.6%)和18.8万次查询(73.7%).

    如此高的恶意域名数量占比和查询量占比,再结合3.2节中的发现,说明存在承载大量new gTLD恶意域名的基础设施. 此外,可以观察到new gTLD恶意域名的查询量小、与域名个数非常接近,说明这些域名存在时间短、变化快.

    接下来从域名个数、源(用户)IP、域名长度和TTL等角度分别考察识别到的new gTLD恶意域名的DNS行为特征,这些特征对恶意域名的早期检测至关重要[7]. 为了叙述方便,由所有new gTLD域名组成的域名集合用Sall表示,而仅包含恶意new gTLD域名的集合用Smalicious表示.

    图7给出了new gTLD恶意域名的SLD对应FQDN数量分布,可以看出恶意的SLD对应更多的FQDN. 具体地,对于Smalicious来说,88.5%的SLD有超过10个FQDN. 与此相比,当考虑Sall时,87.2%的SLD只对应1个FQDN. 其原因有可能是DGA被用来生成恶意域名的FQDN.

    图  7  SLD对应FQDN数量的分布
    Figure  7.  Distribution of the number of FQDNs across SLDs

    接下来分析请求这些恶意域名的网络地址区域是否与整体分布不同. 为此,计算请求2类域名的用户BGP前缀的排名,即分别根据SallSmalicious中域名的发送查询次数对用户的BGP前缀进行排序,并计算2种排名的Kendall距离指标[17].Kendall距离是从Kendall’s tau(衡量2个排名列表的相似程度)推广出来的指标,该指标放宽了Kendall’s tau对于“被比较的2个排名列表必须有相同的元素”这一要求,为此,Kendall距离引入了一个惩罚参数p,并引入一个参数k表示对2个排名列表的前k个元素进行比较. 具体地,带有惩罚参数p的Kendall距离定义为:

    K(p)(τ1,τ2)=i,jτ1τ2¯K(p)i,j(τ1,τ2) (3)

    其中τ1τ2表示被比较的2个前k排名列表. 本文使用“乐观法”(optimistic approach),具体地,将p设置为0,并且判断3个条件是否成立:1)ij都出现在2个列表中,但它们在2个列表中的顺序是相反的;2)ij都出现在某一个列表中,其中i的排名高于j,而j出现在另一个列表中;3)只有i出现在一个列表中,而j出现在另一个列表中. 当这3个条件之一成立时,令¯K(p)i,j(τ1,τ2)=1,否则,令¯K(p)i,j(τ1,τ2)=0. 最后,计算归一化的K(normalized K[18]

    K=1K(0)(τ1,τ2)k2 (4)

    所得到的K取值范围在0~1,如果列表τ1τ2不包含相同元素,则K=0;如果2个列表τ1τ2完全相同,则K=1.

    表3给出了归一化K随考虑的域名个数k的变化情况,其中k=20, 40, 60, 80, 100. 从表3中可以看出2个列表的距离小于0.1时表明2个排名差距大,也就是说SallSmalicious中域名的用户前缀差距大.

    表  3  用户BGP前缀比较
    Table  3.  Comparison of Users’ BGP Prefixes
    kK
    200.08
    400.06
    600.07
    800.06
    1000.08
    下载: 导出CSV 
    | 显示表格

    进一步分析new gTLD域名的SLD长度,结果如表4所示,可以发现超过90%的new gTLD恶意域名长度为4,而考虑所有域名时,域名更长且域名长度分布更均匀. 在传统域名下,考虑到大量的短域名已经被注册,为保证恶意域名可以被攻击者注册,恶意域名长度一般较长,已有DGA域名检测方法往往忽略较短的域名,因此这些方法无法应用于new gTLD恶意域名的检测.

    表  4  不同SLD长度的new gTLD域名占比
    Table  4.  Fraction of new gTLD Domains of Different SLD Lengths
    长度(字符个数) 在new gTLD域名
    中的占比/%
    在恶意new gTLD域名
    中的占比/%
    3 8.5 0.1
    4 25.2 93.0
    5 17.2 6.1
    \geqslant 6 49.1 0.8
    下载: 导出CSV 
    | 显示表格

    域名解析行为的另一个重要特征是域名解析应答的TTL值. 图8给出了A类型查询的TTL值分布,其中包括全体new gTLD域名、恶意new gTLD域名、非恶意(合法)new gTLD域名的TTL分布,以及作为对比的数据集中全部域名的A类型查询TTL值分布. 考虑到由于可以从递归解析器的缓存中返回应答,日志中看到的TTL值可能小于权威域名服务器设置的原始值. 因此,本文参考文献[19-20]中的做法,使用每个域名观察到的最大TTL值作为权威域名服务器设置的原始TTL值的估计.

    图  8  A类型查询的TTL值分布
    Figure  8.  TTL value distribution of A type queries

    图8中可以看出,大约45%的全体域名TTL值小于120 s,而new gTLD域名倾向于使用600 s的TTL值,并且几乎所有的new gTLD恶意域名都把TTL值设置为600 s(这也是许多内容承载提供商的默认设置). 因此,TTL值可能不适用于new gTLD恶意域名的检测.

    对恶意new gTLD域名行为的分析发现,按承载域名量排序的前5个IP/24网段所承载的域名之中有73.6%是恶意的,且与正常域名相比,恶意域名有独特的行为,例如请求用户网络空间分布独特、内容承载基础设施更集中(存在某些AS或IP/24承载大量恶意域名)、SLD长度分布偏斜(更短)、对应FQDN数量更多、每个FQDN的平均查询次数少以及倾向使用默认TTL值设置(例如TTL值为600 s). 上述发现从多角度对恶意域名检测的输入特征选择有所启发. 例如在查询量角度,发现恶意域名FQDN查询量少,启发使用SLD对应的FQDN查询量的统计量作为恶意域名检测的输入特征;在域名个数角度,发现恶意SLD对应的FQDN更多,启发使用SLD对应的FQDN个数作为输入特征;在请求用户网络空间和应答地址角度,发现恶意域名有独特的网络足迹,启发使用域名与请求用户地址(应答地址)的映射关系,从查询量和域名个数入手,用统计量展开维度作为输入特征;在域名长度角度,发现恶意域名短,启发避免使用域名的文本特征作为输入;在TTL角度,发现集中在600 s,启发不使用TTL值作为输入.

    需要说明的是,本文在标记数据集中的域名时使用VirusTotal和360黑名单等恶意域名标记工具,其工作原理是聚合多家杀毒引擎、网站扫描器、URL分析工具和域名屏蔽列表判断所提交域名是否为恶意域名. 这些工具的恶意域名识别准确度高,但是在域名覆盖度上以及检测时效性上存在不足. 因此,它们被广泛应用在基准数据集的构造上,以评估所设计方法的准确性,而不能直接作为恶意域名检测的工具.

    本文旨在设计一种基于解析特征的简单有效的new gTLD恶意域名识别方法,实现恶意域名的快速准确检测,降低恶意域名造成的危害.

    本节基于第3节分析发现的new gTLD恶意域名行为特征,设计new gTLD恶意域名检测方法. 恶意域名检测本质上是一个二分类问题,主要包括输入特征、分类器、输出0/1标签(0为正常域名(本问题中作为负类);1为恶意域名(本问题中作为正类)).

    new gTLD恶意域名检测的主要挑战在于,new gTLD恶意域名相比传统恶意域名有特殊性,需要选取更合适的特征. 现有恶意域名检测方法中缺少针对new gTLD域名的检测方法,而传统恶意域名检测方法设计中往往利用域名的文本特征(如可发音单词数、数字符号字符占比等)进行检测. 但是,第3节的分析发现了若干new gTLD恶意域名的独特行为特征,使得传统恶意域名检测方法并不适用. 如new gTLD域名长度分布偏斜(恶意域名相比正常域名更短),因此域名的文本特征区分性不强,进而导致传统方法对于new gTLD恶意域名检测效果不佳. 因此,本文基于第3节的分析结果,选择具有区分度的特征设计针对new gTLD的恶意域名检测方法,这些特征包括请求用户网络空间分布独特、内容承载基础设施更集中、对应FQDN数量更多、每个FQDN的平均查询次数少等.

    结合3.2节与3.3节的发现,本节避免使用域名的文本特征,也不使用TTL值作为输入,而是分别从域名的查询量、域名个数、发起查询的用户(源IP)、应答IP的角度提取了特征. 表5总结了使用的特征.

    表  5  特征集合
    Table  5.  Feature Sets
    特征集合 特征名称 维度
    域名的查询量SLD对应FQDN查询量的统计量8
    域名个数SLD对应FQDN的个数(总数+每天)15
    客户端(源IP)SLD对应源AS和BGP prefix的个数2
    SLD对应源AS和BGP prefix
    查询量的统计量
    16
    SLD对应源AS和BGP prefix
    在查询方面的特征
    14
    应答IP(AS)SLD对应应答AS的个数1
    SLD映射到AS次数的统计量8
    SLD映射到AS在内容承载方面的特征7
    下载: 导出CSV 
    | 显示表格

    在域名查询量角度,使用每个SLD对应的FQDN查询量的统计量作为输入特征. 例如,某个SLD对应了n个FQDN,这n个FQDN的查询量分别是 {x_1}, {x_2},\cdots,{x_n} ,则对( {x_1},{x_2},\cdots,{x_n} )计算统计量,这里使用的统计量包括了最大值、最小值、均值、标准差、下四分位点、中位数、上四分位点和熵,共8维. 这样做是因为,3.3节中观察到这些new gTLD恶意域名的查询量与域名个数非常接近,说明这些域名查询量少、存在时间短、变化快.

    在域名个数的角度,使用了每个SLD对应的FQDN数量作为输入特征. 除了总量之外,也统计了每天对应的数量,以反映域名数量在时间上的变化. 这样做的原因是,在图7中发现恶意的SLD比new gTLD域名整体有更多的FQDN.

    在发起查询的用户(源IP)的角度,使用查询每个SLD的源AS和BGP prefix数量、查询量的统计量以及在查询方面的特征作为输入. 考虑这些特征是因为发起恶意域名查询次数多的用户BGP前缀与发起非恶意域名查询次数多的用户BGP前缀有很大不同,如表3所示. 这启发了使用SLD与源IP的映射关系,从查询量和域名数量入手,用统计量展开特征维度作为new gTLD恶意域名早期检测的一部分输入特征.

    除了BGP prefix之外,本文也考虑把AS级别的统计量加入. 查询量的统计量与域名查询量使用的统计量相同,都是8维,具体计算的是查询某SLD的每个源AS(或BGP prefix)查询该SLD次数的统计量. 例如,有n个AS(或BGP prefix)查询过某SLD,查询该SLD的次数分别是 {x_1},{x_2},\cdots,{x_n} ,则计算( {x_1}, {x_2},\cdots,{x_n} )的统计量,即最大值、最小值、均值、标准差、下四分位点、中位数、上四分位点和熵. 源AS和BGP prefix在查询方面的特征则是这样考虑的,对查询某个SLD的每个源AS(或BGP prefix),计算它们查询SLD数量的统计量. 例如,有n个AS(或BGP prefix)查询过某SLD,它们查询过SLD的数量分别是 {x_1},{x_2},\cdots,{x_n} ,则对( {x_1},{x_2},\cdots,{x_n} )计算统计量,即计算最大值、最小值、均值、标准差、下四分位点、中位数、上四分位 2.

    在内容承载基础设施角度,从应答IP映射到AS,使用了每个SLD映射到的AS个数、映射到AS次数的统计量以及所映射到的AS在内容承载方面的特征作为输入. 考虑这些特征是因为发现了存在承载大量new gTLD恶意域名的基础设施(见3.3节),并且new gTLD域名使用有限的内容复制和共享的基础设施(如图5图6所示). 同样,使用SLD与应答IP的映射关系,从查询量和域名数量入手,用统计量展开特征维度. 在计算SLD映射到AS次数的统计量时,假设某SLD能被n个AS所承载,且在应答中映射到各AS的次数分别是 {x_1},{x_2},\cdots,{x_n} ,则对( {x_1}, {x_2},\cdots, {x_n} )计算统计量. 而在考虑SLD所映射到的AS在内容承载方面的特征时,对该SLD映射到的每个应答AS所承载SLD的个数计算统计量. 例如,有n个AS能服务某SLD,它们所能承载的SLD的个数分别是 {x_1},{x_2},\cdots,{x_n} ,则对( {x_1},{x_2},\cdots,{x_n} )计算统计量.

    我们观察发现new gTLD恶意域名的活跃天数很短:97.4%的FQDN只活跃1天. 因此,需要选择简单、快速、高效的分类器. 本文考虑随机森林(random forest,RF)、支持向量机(support vector machine,SVM)和Boosting类3种典型方法.

    本节用来研究new gTLD恶意域名检测方法的SLD数据是由3.3节识别到的共1 171个恶意域名和4 770非恶意域名组成. 本节使用的评价指标包括准确率(accuracy)、精确率(precision)、召回率(recall)和F1分数(F1-score),其计算公式分别为

    accuracy{\text{ = }}\frac{{TP + TN}}{{TP + TN + FP + FN}} \text{,} (5)
    precision{\text{ = }}\frac{{TP}}{{TP + FP}} \text{,} (6)
    recall = \frac{{TP}}{{TP + FN}} \text{,} (7)
    F1 - score = \frac{{2 \times precision \times recall}}{{precision + recall}} \text{,} (8)

    其中 TP FP TN FN 分别代表真阳性、假阳性、真阴性和假阴性. 由于本文的分类任务更关心对恶意域名的分类性能,因此将恶意域名作为正样本,将正常域名作为负样本.

    对3类分类器进行了性能评估,经过5折交叉验证并计算了各指标的平均值,结果如表6所示. 其中SVM使用径向基核函数(RBF核),可以看出SVM和RF已经取得了较好的实验效果,SVM在召回率上比RF略高,而RF在精确率和F1分数指标表现更好. 而实验结果表明,集成学习中的3种Boosting类算法(AdaBoost,GBDT,XGBoost)并没能带来明显的性能提升,但是增加了额外的开销. 综上所述,基于实现简单、运行高效且综合性能表现更好的事实,本文选择了RF作为分类器.

    表  6  不同分类器经过5折交叉验证得到各指标的均值
    Table  6.  Average Value of Each Metric for Different Classifiers Under 5-Fold Cross-Validation %
    指标RFSVMAdaBoostGBDTXGBoost
    准确率9494939493
    精确率8883878887
    召回率8486778073
    F1分数8684818378
    下载: 导出CSV 
    | 显示表格

    本节分别从基于域名文本特征和基于解析行为特征的两大类方法中,选择3种有代表性的方法进行对比实验. 在基于域名文本特征的方法中,选择了文献[10-11]提出的方法;而在基于行为特征的方法中,选择文献[12]提出的方法. 下面首先简单介绍这3种方法的实现.

    文献[10]提取域名的结构特征(如下划线数量占比)、语言特征(如元音占比)和统计特征(如信息熵),然后将手动提取出的特征输入到作为分类器的SVM和RF中进行分类,输出对每个域名的预测结果. 文献[11]将域名字符串作为输入,利用深度学习自动提取域名特征并完成分类. 文献[12]利用DNS解析数据提供的映射关系,通过二部图建模域名之间在源IP、应答IP、查询时间3个维度的相似性,用图嵌入得到域名的向量表示,再输入到SVM分类器进行分类. 文献[12]提到这样做相比从领域知识、网络流量或者文本词汇提取特征更加鲁棒、稳定,因为恶意域名的基本行为特征倾向于高度一致性. 已有研究表明,领域知识在不同网络中有所区别,网络特征,例如恶意域名设置的TTL值会随时间改变(为了避免被检测到),恶意域名也会模仿正常域名的文本特征,比如用相似的字符个数或者可发音的单词.

    本文复现了文献[10-12]的3种方法,并与本文方法对比,结果如表7所示. 可以看出:1)在基于域名文本特征的方法中,对于文献[10]提出的方法,其输出将所有域名标记为正常域名,说明在new gTLD恶意域名检测问题上,使用这些人为提取的域名文本特征难以区分恶意与正常域名;而文献[11]的方法优于使用人为提取的域名文本特征的方法[10],但各项指标明显弱于基于解析行为特征的方法.2)在基于DNS解析行为特征的方法中,文献[12]提出的方法优于基于域名文本特征的方法,但由于new gTLD域名活跃天数短,减弱了查询时间维度相似性的效果,且没有考虑域名个数、查询量方面的特征,综合指标不如本文方法;此外,文献[12]提出的方法中的召回率最高但是精确率偏低,说明将更多域名标记为恶意域名,漏检最少但是误检较多.3)综合各个指标,本文方法取得了最好的效果,更适用于new gTLD恶意域名检测. 其原因在于本文方法在输入特征的选择上具有更强的针对性与区分性.

    表  7  与其他恶意域名检测方法的对比
    Table  7.  Comparison with Other Malicious Domain Detection Methods %
    指标 基于域名文本特征 基于DNS解析行为特征
    文献[10] 文献[11] 文献[12] RF
    准确率 80 41 79 94
    精确率 0 65 53 88
    召回率 0 16 88 84
    F1分数 0 25 66 86
    下载: 导出CSV 
    | 显示表格

    进一步地,调整恶意域名和正常域名的比例,原始数据集中恶意域名与正常域名的比例约为1∶4,通过随机采样正常域名的方法分别将此比例调整为1∶3,1∶2,1∶1,并对比数据集正负样本数量的比例对本文方法的影响;此外还通过随机采样恶意域名的方法将比例调整为1∶10,以考察样本较为不均衡的情况,实验结果如表8所示. 可以看出,本文方法的性能较为稳定,而样本中正负例数量的比值确实会影响检测结果,样本数量越均衡,分类性能指标越好. 当比例调整为1∶10时,精确率、召回率和F1分数都有一定的下降,而准确率反而比原始比例(1∶4)更高了,这是因为此时由于负样本太多,分类器倾向于输出分类结果为“正常域名”,反而提高了准确率.

    表  8  恶意SLD和正常SLD数量的比例对指标的影响
    Table  8.  The Effect of the Ratio of the Number of Malicious and Legitimate SLDs on the Metrics %
    指标1∶101∶41∶31∶21∶1
    准确率9694959696
    精确率8388919395
    召回率7984919497
    F1分数8086919496
    下载: 导出CSV 
    | 显示表格

    本文使用被动DNS日志对new gTLD的解析行为进行了分析. 主要发现包括:1)new gTLD的查询量和对应SLD数量符合重尾分布;2)大多数new gTLD域名只将它们的内容复制到1或2个IP/24网段,且使用共享的承载基础设施;3)与正常域名相比,恶意域名在内容承载基础设施集中性、SLD对应的FQDN数目、域名查询次数、请求用户网络空间分布、SLD长度分布等方面具有独特的特征. 基于这些发现,设计了一种new gTLD恶意域名的检测方法,充分考虑了new gTLD恶意域名在解析行为方面的独特特征,并使用RF作为分类器,以实现快速、高效的恶意域名检测. 实验结果表明,与已有方法相比,本文方法具有较高的准确率.

    作者贡献声明:杨东辉、曾彬、李振宇提出了研究思路和实验方案;杨东辉负责完成实验并撰写论文初稿;曾彬获取原始数据与完成部分数据分析;李振宇负责修改论文.

  • 图  1   任务数据设置示意图

    Figure  1.   Illustration of task data setup

    图  2   训练阶段流程

    Figure  2.   Process of training stage

    图  3   基于GNN的FSL方法基本流程

    Figure  3.   Basic flow of FSL method based on GNN

    图  4   GNN-FSL模型框架图[43]

    Figure  4.   The frame diagram of GNN-FSL model [43]

    图  5   EGNN模型框架

    Figure  5.   The framework of EGNN model[53]

    图  6   Frog-GNN模型框架图[17]

    Figure  6.   The frame diagram of Frog-GNN model[17]

    图  7   TPRN模型框架图[65]

    Figure  7.   The frame diagram of TPRN model[65]

    图  8   分层GNN框架图[66]

    Figure  8.   The frame diagram of hierarchical GNN[66]

    表  1   小样本学习方法优缺点对比

    Table  1   Comparison of Advantages and Disadvantages of Few-Shot Learning Methods

    分类体系 优点 缺点
    基于模型微调的方法 方法简单,仅需要设计模型参数;
    调整模块,而无需考虑模型构建.
    当目标数据集与源数据集分布相差较大时,
    将导致模型在目标数据集上过拟合.
    基于数据增强的方法 一定程度地缓解了模型过拟合问题,
    通常专注于对数据属性的增强,
    更高效地利用现有数据,
    避免对模型的优化与调整.
    可能会产生噪声数据或噪声特征,
    难以达到最佳效果.
    基于迁移学习的方法
    基于度量学习的方法 思想易于理解,可解释性较强,
    便于计算和公式化,可扩展性强,
    能够和其他FSL方法结合.
    在样本量较少的情况下,简单地通过
    距离度量的方法使得最终效果不佳.
    基于元学习的方法 受到人类学习的启发,使模型具备学习的
    能力,能够学习到除训练之外的知识,并利用
    已有知识,指导模型更快地适应新任务.
    可解释性强,能够更准确地度量样本间关系.
    模型复杂度较高、训练时间较长,
    因此该类方法的时间成本与设备成本
    较高,且模型效果仍有较大的提升空间.
    基于GNN的方法 GNN中节点分类的思想能够自然地应用于
    小样本分类问题,且该类FSL方法性能较好.
    不可避免地存在节点过平滑的
    问题,由于该方法较为新颖,其
    需要改进和发展的方面还有很多.
    下载: 导出CSV

    表  2   符号说明

    Table  2   Symbol Description

    符号 描述
    Dbase 训练集
    Dnovel 测试集
    mbase 训练集中样本数量
    mnovel 测试集中样本数量
    {x_i} 样本i实例
    {y_i} 样本i实际标签
    {\overline y _i} 样本i预测标签
    Cbase 用于构建训练任务的类集合
    Cnovel 用于构建测试任务的类集合
    N 每轮任务中类的数量
    K 支持集中每一种类的样本数量
    H 查询集中每一种类的样本数量
    {T_{{\text{train}}}} 训练任务
    {T_{{\text{test}}}} 测试任务
    \mathit{\theta } 图神经网络参数
    \mathit{S} 支持集
    Q 查询集
    L 损失函数
    Y 样本标签矩阵
    A 邻接矩阵
    D 度矩阵
    fi 样本i对应的特征向量
    ni 样本i对应的节点表示
    F 样本特征向量矩阵
    下载: 导出CSV

    表  3   数据集的统计与划分

    Table  3   Statistics and Division of Datasets

    数据集 类别数量 图像数量 训练数量/验证数量/测试数量
    MiniimageNet 100 60000 64/16/20
    TieredimageNet 608 779165 351/97/160
    CUB-200-2011 200 11788 100/50/50
    CIFAR-FS 100 60000 64/16/20
    Stanford Cars 196 16185 130/17/49
    下载: 导出CSV

    表  4   基于GNN的小样本图像分类学习方法在2个数据集上的准确率

    Table  4   Accuracy of GNN-Based Few-Shot Image Classification Learning Method on Two Datasets %

    方法模型主干MiniimageNetTieredImageNet

    1-shot

    5-shot

    1-shot

    5-shot
    基于节点特征GNN-FSL[43]Conv450.3366.4154.9770.92
    TPN[44]Conv455.51±0.8669.86±0.6557.53±0.9672.86±0.74
    AGNN[48]Conv454.8169.8557.4772.29
    AGNN*[48]Conv460.1472.4167.2379.55
    DMH-FSL[51]Conv451.1867.86
    文献[50]Conv461.9978.8157.8973.62
    基于边缘特征EGNN[53]Conv452.8666.8570.98
    EGNN*[53]Conv459.1876.3763.5280.15
    MDEGNN*[22]Conv462.23±0.7378.83±0.67
    MCGN[56]Conv457.89±0.8773.58 ± 0.8758.45 ± 0.5974.58 ± 0.84
    MCGN*[56]Conv467.32±0.4383.03 ± 0.5471.21 ± 0.8585.98 ± 0.98
    DPGN*[58]Conv466.01±0.3682.83±0.4169.43±0.4985.92±0.42
    MDGN[59]Conv469.22±0.4685.35±0.72
    Fuzzy GNN[62]Conv464.15±0.2880.08±0.3569.09±0.1584.13±0.18
    基于节点对特征TPRN-T*[64]Conv457.84±0.5178.57±0.4459.26±0.5079.66±0.45
    TPRN-D*[65]Conv462.98±0.5081.24±0.4261.01±0.4980.98±0.42
    基于类级特征Hybrid GNN[69]Conv455.63±0.2272.48±0.1656.05±0.2172.82±0.18
    Hierachical GNN[66]Conv460.03±0.5179.64±0.3664.32±0.4983.34±0.45
    文献[71]Conv471.82±0.8883.04±0.5177.67±0.2787.98±1.01
    ECKPN[67]Conv468.89±0.3483.59±0.4470.45±0.4886.74±0.42
    注:*表示转导学习设置下的模型.
    下载: 导出CSV

    表  5   基于GNN的小样本学习方法总结

    Table  5   Summary of Few-Shot Learning Methods Based on GNN

    方法 模型名称 应用 主要技术 优点 缺点
    基于节点特征 GNN-FSL[43] 图像分类 GCN 1. 节点特征易获取、易利用.
    2. 扩展性强,通过丰富GNN模型使节 点特征在图上进行高效的传播.
    3. 易理解模型设计容易,可解释性强.
    1. 对节点之间相关性的探究不足.
    2. 通常利用节点特征间的相似度构建邻接矩阵,易导致不适当的特征聚合.
    3. 存在过拟合的风险.
    TPN[44] 图像分类 GCN 转导学习
    AGNN[48] 图像分类 GCN 注意力机制
    AMGNN[21] 疾病诊断 GCN 多模态融合
    DMH-FSL[51] 图像分类 超图卷积
    文献[50] 图像分类 GCN 幻觉网络
    基于边缘特征 EGNN[53] 图像分类 GCN 1. 在节点特征的基础上考虑到对节点间的关系进行深入挖掘.
    2. 精心设计的边缘特征既可以控制节点信息聚合的程度也可以建模节点间丰富的关系,效果提升明显.
    3. 设计过的边特征可以缓解图上的过拟合问题.
    1. 边缘特征的表示形式不够丰富.
    2. 缺乏明确的初始边缘特征建模标准.
    3. 设计合适的边缘特征更新网络较为困难. 算法复杂度较高.
    文献[54] 图像分类 GCN
    MDEGNN[55] 图像分类 GCN
    HOSP-GNN[80] 图像分类 GCN 高阶关系
    MCGN[56] 图像分类 GCN 混合高斯分布
    DPGN[58] 图像分类 GCN 分布图
    DPGNN[60] 视频分类 GCN 图池化
    Fuzzy-GNN[62] 图像分类 GCN 模糊数学
    基于节点对特征 Frog-GNN[17] 文本分类 GCN 1. 对节点关系进行显示建模,由此丰富了关系的表现形式.
    2. 直接将关系在图上进行传播,能够学习到节点间的深入的关系.
    3. 能够充分挖掘样本间相关性.
    1. 关系节点的构建方法复杂.
    2. 多种形式的信息在图上传播可能导致节点间过平滑.
    3. 可解释性较差.
    4. 算法复杂度较高.
    5. 模型扩展性较差.
    TPRN-T[64] 图像分类 GCN
    TPRN-D[65] 图像分类 GCN 解耦学习
    基于类级特征 Hierachical GNN[66] 图像分类 GCN 图池化 1. 结合类级知识能够为查询样本匹
    配更高可信度的类级知识,对于5-shot的分类任务这类方法平均性能
    提升明显.
    2. 模型扩展性较强,改进方式较多.
    1. 对于1-shot的分类任务,类级知识对模型性能的提升相当于失效.
    ECKPN[67] 图像分类 GCN 图池化
    多模态
    NSCGNN[19] 文本分类 GCN 胶囊网络
    动态路由算法
    Hybrid GNN[69] 图像分类 GCN 原型网络
    EGNN-prot[18] 图像分类 GCN 原型网络
    文献[71] 图像分类 GCN 分布校准最优
    传输(OPT)
    下载: 导出CSV
  • [1] 葛轶洲,刘恒,王言,等. 小样本困境下的深度学习图像识别综述[J]. 软件学报,2022,33(1):193−210 doi: 10.13328/j.cnki.jos.006342

    Ge Yizhou, Liu Heng, Wang Yan, et al. Survey on deep learning image recognition in dilemma of small samples[J]. Journal of Software, 2022, 33(1): 193−210 (in Chinese) doi: 10.13328/j.cnki.jos.006342

    [2] 李凡长,刘洋,吴鹏翔,等. 元学习研究综述[J]. 计算机学报,2021,44(2):422−446 doi: 10.11897/SP.J.1016.2021.00422

    Li Fanchang, Liu Yang, Wu Pengxiang, et al. A survey on recent advance in meta-learning[J]. Chinese Journal of Computers, 2021, 44(2): 422−446 (in Chinese) doi: 10.11897/SP.J.1016.2021.00422

    [3]

    Sun Qianru, Liu Yaoyao, Chua T, et al. Meta-transfer learning for few-shot learning [C] //Proc of the 32nd IEEE Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2019: 403−412

    [4]

    Wang Peng, Liu Lingqiao, Shen Chunhua, et al. Multi-attention network for one shot learning [C] //Proc of the 30th IEEE Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2017: 2721−2729

    [5]

    Khodadadeh S, Boloni L, Shan M. Unsupervised meta-learning for few-shot image classification [C] //Proc of the 33rd Annual Conf on Neural Information-Processing Systems. Cambrige, MA: MIT, 2019: 10132−10142

    [6] 赵凯琳,靳小龙,王元卓. 小样本学习研究综述[J]. 软件学报,2021,32(2):349−369 doi: 10.13328/j.cnki.jos.006138

    Zhao Kailin, Jin Xiaolong, Wang Yuanzhuo. Survey on few-shot learning[J]. Journal of Software, 2021, 32(2): 349−369 (in Chinese) doi: 10.13328/j.cnki.jos.006138

    [7]

    Howard J, Ruder S. Universal language model fine-tuning for text classification[J]. arXiv preprint, arXiv: 1801. 06146, 2018

    [8]

    Royle J, Dorazio R, Link W. Analysis of multinomial models with unknown index using data augmentation[J]. Journal of Computational and Graphical Statistics, 2007, 16(1): 67−85 doi: 10.1198/106186007X181425

    [9]

    Liu Zicheng, Li Siyuan, Wu Di, et al. AutoMix: Unveiling the power of mixup for stronger classifiers [C] //Proc of the 17th European Conf on Computer Vision. Berlin: Springer, 2022: 441−458

    [10]

    Kipf T, Welling M. Semi-supervised classification with graph convolutional networks[J]. arXiv preprint, arXiv: 1609. 02907, 2016

    [11]

    Blaes S, Burwick T. Few-shot learning in deep networks through global prototyping[J]. Neural Networks, 2017, 94: 159−172 doi: 10.1016/j.neunet.2017.07.001

    [12]

    Rahman S, Khan S, Porikli F. A unified approach for conventional zero-shot, generalized zero-shot, and few-shot learning[J]. IEEE Transactions on Image Processing, 2018, 27((11): ): 5652−5267 doi: 10.1109/TIP.2018.2861573

    [13]

    Cheng Yu, Yu Mo, Guo Xiaoxiao, et al. Few-shot learning with meta metric learners[J]. arXiv preprint, arXiv: 1901. 09890, 2019

    [14] 马帅,刘建伟,左信. 图神经网络综述[J]. 计算机研究与发展,2022,59(1):47−80

    Ma Shuai, Liu Jianwei, Zuo Xin. Survey of graph neural networks[J]. Journal of Computer Research and Development, 2022, 59(1): 47−80 (in Chinese)

    [15] 谢小杰,梁英,王梓森,等. 基于图卷积的异质网络节点分类方法[J]. 计算机研究与发展,2022,59(7):1470−1485

    Xie Xiaojie, Liang Ying, Wang Zisen, et al. Node classification method for heterogeneous networks based on graph convolution[J]. Journal of Computer Research and Development, 2022, 59(7): 1470−1485 (in Chinese)

    [16] 任嘉睿,张海燕,朱梦涵,等. 基于元图卷积的异质网络嵌入学习算法[J]. 计算机研究与发展,2022,59(8):1683−1693

    Ren Jiarui, Zhang Haiyan, Zhu Menghan, et al. Embedding learning algorithm for heterogeneous networks based on metagram convolution[J]. Journal of Computer Research and Development, 2022, 59(8): 1683−1693 (in Chinese)

    [17]

    Xu Shiyao, Xiang Yang. Frog-GNN: Multi-perspective aggregation based graph neural network for few-shot text classification[J]. Expert Systems with Applications, 2021, 176: 114795 doi: 10.1016/j.eswa.2021.114795

    [18]

    Lyu Chen, Liu Weijie, Wang Ping. Few-shot text classification with edge-labeling graph neural network-based prototypical network [C] //Proc of the 28th Int Conf on Computational Linguistics. Stroudsburg, PA: ACL, 2020: 5547−552

    [19]

    Ding Ling, Chen Xiaojun, Xiang Yang. Negative-supervised capsule graph neural network for few-shot text classification[J]. Journal of Intelligent & Fuzzy Systems, 2021, 41(6): 6875−6887

    [20]

    Zhang Yuxiang, Li Wei, Zhang Mengmeng, et al. Dual graph cross-domain few-shot learning for hyperspectral image classification [C] //Proc of the 47th IEEE Int Conf on Acoustics Speech and Signal Processing. Piscataway, NJ: IEEE, 2022: 3573−3577

    [21]

    Song Xiaofa, Mao Mingyi, Qian Xiaohua. Auto-metric graph neural network based on a meta-learning strategy for the diagnosis of Alzheimer’s disease[J]. IEEE Journal of Biomedical and Health Informatics, 2021, 25(8): 3141−3152 doi: 10.1109/JBHI.2021.3053568

    [22]

    Xiong chao, Li wen, Wang Minghui, et al. Multi-dimensional edge features graph neural network on few-shot image classification[J]. IEEE Signal Processing Letters, 2021, 28: 573−577 doi: 10.1016/j.ymeth.2021.10.005

    [23] 刘颖,雷研博,范九伦,等. 基于小样本学习的图像分类技术综述[J]. 自动化学报,2021,47(2):297−315 doi: 10.16383/j.aas.c190720

    Liu Ying, Lei Yanbo, Fan Jiulun, et al. Survey on image classification technology based on small sample learning[J]. Acta Automatica Sinica, 2021, 47(2): 297−315 (in Chinese) doi: 10.16383/j.aas.c190720

    [24] 徐冰冰,岑科廷,黄俊杰,等. 图卷积神经网络综述[J]. 计算机学报,2020,43(5):755−780

    Xu Bingbing, Cen Keting, Huang Junjie, et al. A survey on graph convolutional neural networks[J]. Chinese Journal of Computers, 2020, 43(5): 755−780 (in Chinese)

    [25]

    Nakamura A, Harada T. Revisiting fine-tuning for few-shot learning[J]. arXiv preprint, arXiv: 1910. 00216, 2019

    [26]

    Dhillon G S, Ghaudhari P, Ravichandran A, et al. A baseline for few-shot image classification [C/OL] //Proc of the 8th Int Conf on Learning Representation. Amsterdam: Elsevier, 2020 [2023-03-26].https://openreview.net/forum?id=rylXBkrYDS

    [27]

    Wang Y, Girshick R, Hebert M, et al. Low-shot learning from imaginary data [C] //Proc of the 30th IEEE Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2018: 7278−7286

    [28]

    Liu Bo, Wang Xudong, Dixit M, et al. Feature space transfer for data augmentation [C] //Proc of the 30th IEEE Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2018: 9090−9098

    [29]

    Jing Kunlei, Zhang Xinman, Yang Zhiyuan, et al. Feature augmentation learning for few-shot palmprint image recognition with unconstrained acquisition [C] //Proc of the 47th IEEE Int Conf on Acoustics Speech and Signal Processing. Piscataway, NJ: IEEE, 2022: 3323−3327

    [30] 蒋留兵,周小龙,姜风伟,等. 基于改进匹配网络的单样本学习[J]. 系统工程与电子技术,2019,41(6):1210−1217 doi: 10.3969/j.issn.1001506X.2019.06.06

    Jiang Liubing, Zhou Xiaolong, Jiang Fengwei, et al. One-shot learning based on improved matching network[J]. Systems Engineering and Electronics, 2019, 41(6): 1210−1217 (in Chinese) doi: 10.3969/j.issn.1001506X.2019.06.06

    [31]

    Snell J, Swersky K, Zemel R. Prototypical networks for few-shot learning [C] //Proc of the 31st Annual Conf on Neural InformationProcessing Systems. Cambrige, MA: MIT, 2017: 4077−4087

    [32]

    Li Wenbin, Xu Jinglin, Huo Jing, et al. Distribution consistency based covariance metric networks for few-shot learning [C] //Proc of the 33rd AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2019: 8642−8649

    [33]

    Jiang Wen, Huang Kai, Geng Jie, et al. Multi-scale metric learning for few-shot learning[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2020, 31(3): 1091−1102

    [34] Tian Yingjie, Zhao Xiaoxi, Huang Wei. Meta-learning approaches for learning-to-learn in deep learning: A survey [J]. Neurocomputing, 2022, 494: 203−223

    Tian Yingjie,Zhao Xiaoxi,Huang Wei. Meta-learning approaches for learning-to-learn in deep learning:A survey [J]. Neurocomputing,2022,494:203−223

    [35] 李维刚,甘平,谢璐,等. 基于样本对元学习的小样本图像分类方法[J]. 电子学报,2022,50(2):295−304 doi: 10.12263/DZXB.20210453

    Li Weigang, Gan Ping, Xie Lu, et al. A few-shot image classification method by pairwise-based meta learning[J]. Acta Electronica Sinica, 2022, 50(2): 295−304 (in Chinese) doi: 10.12263/DZXB.20210453

    [36]

    Ravi S, Larochelle H. Optimization as a model for few-shot learning [C/OL] //Proc of the 4th Int Conf on Learning Representation. Amsterdam: Elsevier, 2016 [2023-03-26].https://openreview.net/pdf?id=rJY0-Kcll

    [37]

    Finn C, Abbeel P, Levine S. Model-agnostic meta-learning for fast adaptation of deep networks [C] //Proc of the 34th ACM Int Conf on Machine Learning. New York: ACM, 2017: 1126−1135

    [38]

    Li Zhenguo, Zhuo Fengwei, Chen Fei, et al. Meta-SGD: Learning to learn quickly for few-shot learning[J]. arXiv preprint, arXiv: 1707. 09835, 2017

    [39]

    Vinyals O, Blundell C, Lilicrap T, et al. Matching networks for one shot learning [C] //Proc of the 30th Annual Conf on Neural Information Processing Systems. Cambrige, MA: MIT, 2016: 3630−3638

    [40]

    Santoro A, Bartunov S, Botvinick M, et al. Meta-learning with memory-augmented neural networks [C] //Proc of the 33rd ACM Int Conf on Machine Learning. New York: ACM, 2016: 1842−1850

    [41]

    Brendel W, Bethge M. Approximating CNNs with bag-of-local-features models works surprisingly well on ImageNet [C/OL] //Proc of the 7th Int Conf on Learning Representation. Amsterdam: Elsevier, 2019 [2023-03-26].https://openreview.net/forum?id=rJY0-Kcll

    [42]

    Lai K, Zha Daochen, Zhou Kaixiong, et al. Policy-GNN: Aggregation optimization for graph neural networks [C] //Proc of the 26th ACM SIGKDD Conf on Knowledge Discovery and Data Mining. New York: ACM, 2020: 461−471

    [43]

    Garcia V, Bruna J. Few-shot learning with graph neural networks [C/OL] //Proc of the 6th Int Conf on Learning Representation. Amsterdam: Elsevier, 2018 [2023-03-26].https://openreview.net/pdf ?id=BJj6qGbRW

    [44]

    Liu Yanbin, Lee J, Park M, et al. Learning to propagate labels: Transductive propagation network for few-shot learning [C/OL] //Proc of the 7th Int Conf on Learning Representation. Amsterdam: Elsevier, 2019 [2023-03-26].https://openreview.net/pdf?id=SyVuRiC5K7

    [45]

    Qiao Limeng, Shi Yemin, Li Jia, et al. Transductive episodic-wise adaptive metric for few-shot learning [C] //Proc of the 11th IEEE Int Conf on Computer Vision. Piscataway, NJ: IEEE, 2019: 3602−3611

    [46]

    Angluin D, Smith C. Inductive inference: Theory and methods[J]. ACM Computing Surveys, 1983, 15(3): 237−269 doi: 10.1145/356914.356918

    [47]

    Chen Jinyin, Lin Xiang, Xiong Hui, et al. Smoothing adversarial training for GNN[J]. IEEE Transactions on Computational Social Systems, 2020, 8(3): 618−629

    [48]

    Cheng Hao, Zhou J, Tay W, et al. Attentive graph neural networks for few-shot learning [C] //Proc of the 5th IEEE Int Conf on Multimedia Information Processing and Retrieval. Piscataway, NJ: IEEE, 2022: 152−157

    [49]

    Velickovic P, Cucurull G, Casanova A, et al. Graph attention networks[J]. arXiv preprint, arXiv: 1710. 10903, 2017

    [50] Zhang Xu, Zhang Youjia, Zhang Zuyu, et al. Discriminative learning of imaginary data for few-shot classification [J]. Neurocomputing, 2022, 467: 406−417

    Zhang Xu,Zhang Youjia,Zhang Zuyu,et al. Discriminative learning of imaginary data for few-shot classification [J]. Neurocomputing,2022,467:406−417

    [51]

    Xu Rui, Liu Baodi, Lu Xiaoping, et al. DMH-FSL: Dual-modal hypergraph for few-shot learning[J]. Neural Processing Letters, 2022, 54(2): 1317−1332 doi: 10.1007/s11063-021-10684-7

    [52]

    Yadati N, Nimishakavi M, Yadav P, et al. HyperGCN: A new method for training graph convolutional networks on hypergraphs [C] //Proc of the 33rd Annual Conf on Neural Information Processing Systems. Cambrige, MA: MIT, 2019: 1509−1520

    [53]

    Kim J, Kim T, Kim S, et al. Edge-labeling graph neural network for few-shot learning [C] //Proc of the 32nd IEEE Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2019: 11−20

    [54]

    Zuo Xibing, Yu Xuchun, Liu Bing, et al. FSL-EGNN: Edge-labeling graph neural network for hyperspectral image few-shot classification[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 1−18

    [55]

    Xiong Chao, Li Wen, Liu Yun, et al. Multi-dimensional edge features graph neural network on few-shot image classification[J]. IEEE Signal Processing Letters, 2021, 28: 573−577 doi: 10.1109/LSP.2021.3061978

    [56]

    Tang Shixiang, Chen Dapeng, Bai Lei, et al. Mutual CRF-GNN for few-shot learning [C] //Proc of the 34th IEEE Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2021: 2329−2339

    [57] Bale T, Vale W. CRF and CRF receptors: Role in stress responsivity and other behaviors [J]. Annual Review of Pharmacology and Toxicology, 2004, 44: 525−557

    Bale T,Vale W. CRF and CRF receptors:Role in stress responsivity and other behaviors [J]. Annual Review of Pharmacology and Toxicology,2004,44:525−557

    [58]

    Yang Lin, Li Liangliang, Zhang Zilun, et al. DPGNN: Distribution propagation graph network for few-shot learning [C] //Proc of the 33rd IEEE Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2020: 13387−13396

    [59]

    Zhang Bailin, Ling Hefei, Shen Jialie, et al. Mixture distribution graph network for few shot learning[J]. IEEE Transactions on Cognitive and Developmental Systems, 2022, 14(3): 892−901 doi: 10.1109/TCDS.2021.3075280

    [60]

    Hu Yufan, Gao Junyu, Xu Changsheng. Learning dual-pooling graph neural networks for few-shot video classification[J]. IEEE Transactions on Multimedia, 2020, 23: 4285−4296

    [61]

    Mordeson J. Fuzzy mathematics [M]. Foundations of Image Understanding. Berlin: Springer, 2001: 95−125

    [62]

    Wei Tong, Hou Junlin, Feng Rui. Fuzzy graph neural network for few-shot learning [C/OL] //Proc of the 30th IEEE Int Joint Conf on Neural Networks. Piscataway, NJ: IEEE, 2020 [2023-03-26].https://openreview.net/pdf?id=BJj6qGbRW

    [63]

    Devlin J, Chang M, Lee K, et al. Bert: Pre-training of deep bidirectional transformers for language understanding [C] //Proc of the 17th Annual Conf of the North American chapter of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2019: 4171−4186

    [64]

    Ma Yuqing, Bai Shihao, An Shan, et al. Transductive relation-propagation network for few-shot Learning [C] //Proc of the 29th Int Joint Conf on Artificial Intelligence. San Francisco, CA: Morgan Kaufmann, 2020: 804−810

    [65]

    Ma Yuqing, Bai Shihao, Liu Wei, et al. Transductive relation-propagation with decoupling training for few-shot learning[J]. IEEE Transactions on Neural Networks and Learning Systems, 2022, 33(11): 6652−6664 doi: 10.1109/TNNLS.2021.3082928

    [66]

    Chen Cen, Li Kenli, Wei Wei, et al. Hierarchical graph neural networks for few-shot learning[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2021, 32(1): 240−252

    [67]

    Chen Chaofan, Yang Xiaoshan, Xu Changsheng, et al. ECKPN: Explicit class knowledge propagation network for transductive few-shot learning [C] //Proc of the 34th IEEE Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2021: 6596−6605

    [68]

    Pennington J, Socher R, Manning C. Glove: Global vectors for word representation [C] //Proc of the 28th Int Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2014: 1532−1543

    [69]

    Yu Tianyuan, He Sen, Song Yizhe, et al. Hybrid graph neural networks for few-shot learning [C] //Proc of the 36th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2022: 3179−3187

    [70]

    Deng Fei, Pu Shengliang, Chen Xuehong, et al. Hyperspectral image classification with capsule network using limited training samples[J]. Sensors, 2018, 18(9): 3153−3174 doi: 10.3390/s18093153

    [71]

    Zhang Ruiheng, Yang Shuo, Zhang Qi, et al. Graph-based few-shot learning with transformed feature propagation and optimal class allocation[J]. Neurocomputing, 2022, 470: 247−256 doi: 10.1016/j.neucom.2021.10.110

    [72]

    Tantawi A, Towsley G, Wolf J. Optimal allocation of multiple class resources in computer systems [C] //Proc of the 16th ACM SIGMETRICS Conf on Measurement and Modeling of Computer Systems. New York: ACM, 1988: 253−260

    [73]

    Cuturi M. Sinkhorn distances: Lightspeed computation of optimal transport [C] //Proc of the 27th Annual Conf on Neural Information Processing Systems. Cambrige, MA: MIT, 2013: 2292−2300

    [74]

    Malalur P, Jaakkola T. Alignment based matching networks for one-shot classification and open-set recognition[J]. arXiv preprint, arXiv: 1903. 06538, 2019

    [75]

    Ren M, Triantafillou E, Ravi S, et al. Meta-learning for semi-supervised few-shot classification [C/OL]//Proc of the 6th Int Conf on Learning Representation. Amsterdam: Elsevier, 2018 [2023-03-26].https://openreview.net/pdf?id=HJcSzz-CZ

    [76]

    Cui Yin , Zhou Feng, Lin Yuanqing, et al. Fine-grained categorization and dataset bootstrapping using deep metric learning with humans in the loop [C] //Proc of the 29th IEEE Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2016: 1153−1162

    [77]

    Singla S, Singla S, Feizi S. Improved deterministic l2 robustness on CIFAR-10 and CIFAR-100 [C/OL] //Proc of the 10th Int Conf on Learning Representation. Amsterdam: Elsevier, 2022 [2023-03-26].https://openreview.net/forum?id=tD7eCtaSkR

    [78]

    Deng J, Dong W, Socher R, et al. ImageNet: A large-scale hierarchical image database [C] //Proc of the 22nd IEEE Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2009: 248−255

    [79]

    He Kaiming, Zhang Xianyu, Ren Shaoqing, et al. Deep residual learning for image recognition [C] //Proc of the 29th IEEE Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2016: 770−778

    [80]

    Lin Guangfeng, Yang Ying, Fan Yindi, et al. High-order structure preserving graph neural network for few-shot learning[J]. arXiv preprint, arXiv: 2005. 14415, 2020

    [81]

    Wang Yaqing, Yao Quanming, Kwok J, et al. Generalizing from a few examples: A survey on few-shot learning[J]. ACM Computing Surveys, 2020, 53(3): 1−34

    [82]

    Bendre N, Marin H, Najafirad P. Learning from few samples: A survey[J]. arXiv preprint, arXiv: 2007. 15484, 2020

    [83]

    Li Na, Zhou Deyun, Shi Jiao, et al. Graph-based deep multitask few-shot learning for hyperspectral image classification[J]. Remote Sensing, 2022, 14(9): 2246−2267 doi: 10.3390/rs14092246

    [84]

    Tong Xinyi, Yin Jihao, Han Bingnan, et al. Few-shot learning with attention-weighted graph convolutional networks for hyperspectral image classification [C] //Proc of the 27th IEEE Int Conf on Image Processing. Piscataway, NJ: IEEE, 2020: 1686−1690

    [85]

    Hong Danfeng, Gao Lianru, Yao Jing, et al. Graph convolutional networks for hyperspectral image classification[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 59(7): 5966−5978 doi: 10.1109/TGRS.2020.3015157

    [86]

    Xiao Weiwei, Song Kechen, Liu Jie, et al. Graph embedding and optimal transport for few-shot classification of metal surface defect[J]. IEEE Transactions on Instrumentation and Measurement, 2022, 71: 1−10

    [87]

    Bao Yanqi, Song Kechen, Liu Jie, et al. Triplet-graph reasoning network for few-shot metal generic surface defect segmentation[J]. IEEE Transactions on Instrumentation and Measurement, 2021, 70: 1−11

    [88]

    Li Feimo, Li Shuaibo, Fan Xinxin, et al. Structural attention enhanced continual meta-learning for graph edge labeling based few-shot remote sensing scene classification[J]. Remote Sensing, 2022, 14(3): 485−515 doi: 10.3390/rs14030485

    [89]

    Yuan Zhengwu, Huang Wendong, Tang Chan, et al. Graph-based embedding smoothing network for few-shot scene classification of remote sensing images[J]. Remote Sensing, 2022, 14(5): 1161−1179 doi: 10.3390/rs14051161

    [90]

    Guo Xinyu, Tian Bingjie, Tian Xuedong. HFGNN-proto: Hesitant fuzzy graph neural network-based prototypical network for few-shot text classification[J]. Electronics, 2022, 11(15): 2423−2437 doi: 10.3390/electronics11152423

    [91]

    Ma Ning, Bu Jiajun, Yang Jieyu, et al. Adaptive-step graph meta-learner for few-shot graph classification [C] //Proc of the 29th ACM Int Conf on Information & Knowledge Management. New York: ACM, 2020: 1055−1064

    [92]

    Hospedales T, Antoniou A, Micaelli P, et al. Meta-learning in neural networks: A survey[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2022, 44(9): 5149−5169

    [93]

    Pan Jiacheng, Lin Haocai, Dong Yihong, et al. MAMF-GCN: Multi-scale adaptive multi-channel fusion deep graph convolutional network for predicting mental disorder[J]. Computers in Biology and Medicine, 2022, 148: 105823 doi: 10.1016/j.compbiomed.2022.105823

    [94]

    Wei Yinwei, Wang Xiang, Nie Liqiang, et al. MMGCN: Multi-modal graph convolution network for personalized recommendation of micro-video [C] //Proc of the 27th ACM Int Conf on Multimedia. New York: ACM, 2019: 1437−144

    [95]

    Tao Zhulin, Wei Yinwei, Wang Xiang, et al. MGAT: Multimodal graph attention network for recommendation[J]. Information Processing & Management, 2020, 57(5): 102277

    [96]

    Hsu K, Levine S, Finn C. Unsupervised learning via meta-learning [C/OL] //Proc of the 7th Int Conf on Learning Representation. Amsterdam: Elsevier, 2018 [2023-03-26].https://openreview.net/forum?id=r1My6sR9tX

    [97]

    Antoniou A, Storkey A. Assume, augment and learn: Unsupervised few-shot meta-learning via random labels and data augmentation[J]. arXiv preprint, arXiv: 1902. 09884, 2019

    [98]

    Veeriah V, Hessel M, Xu Zhongwen, et al. Discovery of useful questions as auxiliary tasks [C] // Proc of the 33rd Annual Conf on Neural Information Processing Systems. Cambrige, MA: MIT, 2019: 9306−9317

    [99]

    Zheng Zeyu, Oh J, Singh S. On learning intrinsic rewards for policy gradient methods [C] // Proc of the 32nd Annual Conf on Neural Information Processing Systems. Cambrige, MA: MIT, 2018: 4649−4659

    [100]

    Meier F, Kappler D, Schaal S. Online learning of a memory for learning rates [C] //Proc of the 4th IEEE Int Conf on Robotics and Automation. Piscataway, NJ: IEEE, 2018: 2425−2432

    [101]

    Tseng H, Lee H, Huang Jiabin, et al. Cross-domain few-shot classification via learned feature-wise transformation [C/OL] //Proc of the 9th Int Conf on Learning Representation. Amsterdam: Elsevier, 2020 [2023-03-26].https://openreview.net/forum?id=SJl5Np4tPr

    [102]

    Yun S, Jeong M, Kim R, et al. Graph transformer networks [C] // Proc of the 33rd Annual Conf on Neural Information Processing Systems. Cambrige, MA: MIT, 2019: 11960−11970

    [103]

    Jiang Bo, Zhao Kangkang, Tang jin, et al. RGTransformer: Region-graph transformer for image representation and few-shot classification[J]. IEEE Signal Processing Letters, 2022, 29: 792−796 doi: 10.1109/LSP.2022.3155991

  • 期刊类型引用(1)

    1. 曹成昊,陈海英,王雯毅,梁金刚,佘顶,曹建主. 球床式高温气冷堆精细化堆芯核素积存量计算方法研究. 原子能科学技术. 2025(05): 1075-1084 . 百度学术

    其他类型引用(0)

图(8)  /  表(5)
计量
  • 文章访问数:  1051
  • HTML全文浏览量:  143
  • PDF下载量:  429
  • 被引次数: 1
出版历程
  • 收稿日期:  2022-11-10
  • 修回日期:  2023-05-15
  • 网络出版日期:  2023-11-13
  • 刊出日期:  2024-04-05

目录

/

返回文章
返回