分类体系 | 优点 | 缺点 | |
基于模型微调的方法 | 方法简单,仅需要设计模型参数; 调整模块,而无需考虑模型构建. |
当目标数据集与源数据集分布相差较大时, 将导致模型在目标数据集上过拟合. |
|
基于数据增强的方法 | 一定程度地缓解了模型过拟合问题, 通常专注于对数据属性的增强, 更高效地利用现有数据, 避免对模型的优化与调整. |
可能会产生噪声数据或噪声特征, 难以达到最佳效果. |
|
基于迁移学习的方法 |
基于度量学习的方法 | 思想易于理解,可解释性较强, 便于计算和公式化,可扩展性强, 能够和其他FSL方法结合. |
在样本量较少的情况下,简单地通过 距离度量的方法使得最终效果不佳. |
基于元学习的方法 | 受到人类学习的启发,使模型具备学习的 能力,能够学习到除训练之外的知识,并利用 已有知识,指导模型更快地适应新任务. 可解释性强,能够更准确地度量样本间关系. |
模型复杂度较高、训练时间较长, 因此该类方法的时间成本与设备成本 较高,且模型效果仍有较大的提升空间. |
|
基于GNN的方法 | GNN中节点分类的思想能够自然地应用于 小样本分类问题,且该类FSL方法性能较好. |
不可避免地存在节点过平滑的 问题,由于该方法较为新颖,其 需要改进和发展的方面还有很多. |
小样本学习方法优缺点对比
相关文章
-
2025, 62(2): 432-442. DOI: 10.7544/issn1000-1239.202440123
-
2024, 61(1): 196-208. DOI: 10.7544/issn1000-1239.202220922
-
2023, 60(7): 1603-1614. DOI: 10.7544/issn1000-1239.202220232
-
2022, 59(9): 2003-2014. DOI: 10.7544/issn1000-1239.20210699
-
2022, 59(3): 674-682. DOI: 10.7544/issn1000-1239.20200693
-
2021, 58(12): 2573-2584. DOI: 10.7544/issn1000-1239.2021.20210999
-
2021, 58(7): 1436-1455. DOI: 10.7544/issn1000-1239.2021.20200685
-
2020, 57(12): 2596-2609. DOI: 10.7544/issn1000-1239.2020.20190670
-
2011, 48(10): 1823-1830.