• 中国精品科技期刊
  • CCF推荐A类中文期刊
  • 计算领域高质量科技期刊T1类
高级检索
分类体系 优点 缺点
基于模型微调的方法 方法简单,仅需要设计模型参数;
调整模块,而无需考虑模型构建.
当目标数据集与源数据集分布相差较大时,
将导致模型在目标数据集上过拟合.
基于数据增强的方法 一定程度地缓解了模型过拟合问题,
通常专注于对数据属性的增强,
更高效地利用现有数据,
避免对模型的优化与调整.
可能会产生噪声数据或噪声特征,
难以达到最佳效果.
基于迁移学习的方法
基于度量学习的方法 思想易于理解,可解释性较强,
便于计算和公式化,可扩展性强,
能够和其他FSL方法结合.
在样本量较少的情况下,简单地通过
距离度量的方法使得最终效果不佳.
基于元学习的方法 受到人类学习的启发,使模型具备学习的
能力,能够学习到除训练之外的知识,并利用
已有知识,指导模型更快地适应新任务.
可解释性强,能够更准确地度量样本间关系.
模型复杂度较高、训练时间较长,
因此该类方法的时间成本与设备成本
较高,且模型效果仍有较大的提升空间.
基于GNN的方法 GNN中节点分类的思想能够自然地应用于
小样本分类问题,且该类FSL方法性能较好.
不可避免地存在节点过平滑的
问题,由于该方法较为新颖,其
需要改进和发展的方面还有很多.
下载: 导出CSV

小样本学习方法优缺点对比