-
摘要:
利用含有有损标签的噪声数据来训练深度学习模型是机器学习中的研究热点. 研究表明深度学习模型训练易受噪声数据的影响而产生过拟合现象. 最近,一种将元学习与标签校正相结合的方法能够使模型更好地适应噪声数据以减缓过拟合现象,然而这种元标签校正方法依赖于模型的性能,同时轻量化模型在噪声数据下不具备良好的泛化性能. 针对这一问题,本文结合元学习提出一种基于在线蒸馏的轻量化噪声标签学习方法KDMLC(knowledge distillation-based meta-label correction learning),该方法将深度神经网络与多层感知机构成的元标签校正(meta label correction,MLC)模型视为教师模型,对噪声标签进行校正并指导轻量化模型进行训练,同时采用双层优化策略训练并增强教师模型的泛化能力,从而生成更高质量的伪标签用于训练轻量化模型. 实验表明,KDMLC在高噪声水平下对比MLC方法准确率提高了5.50个百分点;同时对CIFAR10数据集使用Cutout数据增强,KDMLC在高噪声水平下对比MLC准确率提升了9.11个百分点,而在真实噪声数据集Clothing1M上的实验,KDMLC也优于其他方法,验证了KDMLC的可行性和有效性.
Abstract:Training deep learning models with noisy data containing lossy labels is a hot research topic in machine learning. Studies have shown that deep learning model training is susceptible to overfitting due to noisy data. Recently, a method combining meta-learning and label correction can make the model better adapt to the noisy data to mitigate the overfitting phenomenon. However, this meta-label correction method relies on the model’s performance, and the lightweight model does not have good generalization performance under noisy data. To address this problem, we propose a knowledge distillation-based meta-label correction learning method (KDMLC), which treats the meta label correction model (MLC) composed of a deep neural network and a multilayer perceptron as a teacher model to correct the noise labels and guide the training of the lightweight model, and at the same time, KDMLC adopts a two-layer optimization strategy to train and enhance the generalization ability of the teacher model, so as to generate a higher-quality pseudo-labels for training the lightweight model. The experiments show that KDMLC improves the test accuracy by 5.50% compared with MLC method at high noise level; meanwhile, using Cutout data enhancement on the CIFAR10 dataset, KDMLC improves the test accuracy by 9.11% compared with MLC at high noise level, and the experiments on the real noisy dataset, Clothing1M, also show that KDMLC outperforms the other methods, verifying that KDMLC is better than the other methods, which verifies the feasibility and validity of KDMLC method.
-
Keywords:
- pseudo labels /
- label correction /
- meta learning /
- knowledge distillation /
- noise data
-
-
表 1 基于知识蒸馏的标签校正方法对比
Table 1 Comparison of Label Correction Methods Based on Knowledge Distillation
表 2 数据集样本个数设置
Table 2 Settings of Sample Numbers in the Dataset
数据集类型 数据集(类别数) CIFAR10(10) CIFAR100(100) Clothing1M(14) 训练集 50×103 50×103 1050 ×103测试集 10×103 10×103 10×103 干净数据集 1×103 1×103 50×103 噪声数据集 49×103 49×103 1000 ×103表 3 KDMLC与不同方法在CIFAR10数据集的性能对比
Table 3 Performance Comparison of KDMLC and Different Methods on CIFAR10 Dataset
% 方法 UNIF噪声的4种噪声水平 FLIP噪声的2种噪声水平 20% 40% 60% 80% 20% 40% Fine-tuning 91.17 87.34 83.75 69.28 93.11 91.04 GEC[29] 90.27 88.50 83.70 57.27 90.11 85.24 Co-teaching[31] 86.05 75.15 73.31 83.68 75.62 L2RW[32] 87.11 82.60 87.86 85.66 GLC[18] 91.47 88.52 84.08 64.21 92.46 91.74 MW-Net[30] 91.48 87.77 81.98 65.88 91.47 91.64 MLC[8] 89.83 87.32 83.92 74.43 91.81 91.35 KDMLCNT 89.97 88.16 85.13 77.34 92.08 91.62 KDMLCNS 90.25 89.78 86.76 79.93 92.87 92.48 注:NT与NS分别代表教师模型与学生模型,黑体数值表示最优分类准确率. 表 4 KDMLC与MLC在2种噪声类型下CIFAR100数据集的准确率对比
Table 4 Accuracy Comparison of KDMLC and MLC on CIFAR100 Dataset with Two Types of Noise
% 方法 UNIF噪声的4种噪声水平 FLIP噪声的2种噪声水平 20% 40% 60% 80% 20% 40% MLC 58.51 36.43 23.59 16.50 60.19 55.69 KDMLCNT 63.26 44.92 28.74 19.65 64.84 63.88 KDMLCNS 67.79 50.61 31.33 19.83 68.73 67.59 注:黑体数值表示最优值. 表 5 KDMLC消融实验准确率对比
Table 5 Comparison of Accuracy in KDMLC Ablation Experiments
% 训练策略 模型 数据集/噪声类型/噪声水平 CIFAR10/UNIF/80% CIFAR100/FLIP/40% 无学生反馈 KDMLCNT 74.51 55.73 KDMLCNS 76.48 59.61 KDMLC方法 KDMLCNT 77.34 63.88 KDMLCNS 79.93 67.59 注:黑体数值表示最优值. 表 6 KDMLC与MLC在2种噪声类型下的准确率对比
Table 6 Accuracy Comparison of KDMLC and MLC with Two Types of Noise
% 本文方法 UNIF噪声的3种噪声水平 FLIP噪声的3种噪声水平 40% 60% 80% 20% 30% 40% KDMLCNT 88.16 85.13 77.34 64.84 64.37 63.88 KDMLCNS 89.78 86.76 79.93 68.73 68.23 67.59 CNT 89.05 86.37 82.28 64.67 64.18 63.91 CNS 90.26 87.44 83.54 68.59 67.98 67.76 注:黑体数值表示最优分类准确率. -
[1] Zhang Chiyuan, Bengio S, Hardt M, et al. Understanding deep learning (still) requires rethinking generalization[J]. Communications of the ACM, 2021, 64(3): 107−115 doi: 10.1145/3446776
[2] Nakkiran P, Kaplun G, Bansal Y, et al. Deep double descent: Where bigger models and more data hurt[J]. Journal of Statistical Mechanics: Theory and Experiment, 2021, 2021(12): 124003
[3] Jindal I, Nokleby M, Chen Xuewen. Learning deep networks from noisy labels with dropout regularization[C]//Proc of the 16th IEEE Int Conf on Data Mining. Piscataway, NJ: IEEE, 2016: 967−972
[4] Pereyra G, Tucker G, Chorowski J, et al. Regularizing neural networks by penalizing confident output distributions[J]. arXiv preprint, arXiv: 1701.06548, 2017
[5] 欧阳宵,陶红,范瑞东,等. 利用标签相关性先验的弱监督多标签学习方法[J]. 软件学报,2023,34(4):1732−1748 Ouyang Xiao, Tao Hong, Fan Ruidong, et al. Weakly supervised multi-label learning using prior label correlation information[J]. Journal of Software, 2023, 34(4): 1732−1748 (in Chinese)
[6] 苗壮,王亚鹏,李阳,等. 一种鲁棒的双教师自监督蒸馏哈希学习方法[J]. 计算机科学,2022,49(10):159−168 Miao Zhuang, Wang Yapeng, Li Yang, et al. Robust Hash learning method based on dual-teacher self-supervised distillation[J]. Computer Science, 2022, 49(10): 159−168 (in Chinese)
[7] Jiang Lu, Zhou Zhengyuan, Leung T, et al. Mentornet: Learning data-driven curriculum for very deep neural networks on labels[C]//Proc of the 35th Int Conf on Machine Learning. New York: ACM, 2018: 2304−2313
[8] Zheng Guoqing, Awadallah A H, Dumais S. Meta label correction for noisy label learning[C]//Proc of the 35th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2021: 11053−11061
[9] Finn C, Abbeel P, Levine S. Model-agnostic meta-learning for fast adaptation of deep networks[C]//Proc of the 34th Int Conf on Machine Learning. New York: ACM, 2017: 1126−1135
[10] 纪荣嵘,林绍辉,晁飞,等. 深度神经网络压缩与加速综述[J]. 计算机研究与发展,2018,55(9):1871−1888 Ji Rongrong, Lin Shaohui, Chao Fei, et al. Deep neural network compression and acceleration: A review[J]. Journal of Computer Research and Development, 2018, 55(9): 1871−1888 (in Chinese)
[11] Hinton G, Vinyals O, Dean J. Distilling the knowledge in a neural network[J]. arXiv preprint, arXiv: 1503.02531, 2015
[12] Yang Zhendong, Li Zhe, Gong Yuan, et al. Rethinking knowledge distillation via cross-entropy[J]. arXiv preprint, arXiv: 2208.10139, 2022
[13] Pham H, Dai Zihang, Xie Qizhe, et al. Meta pseudo labels[C]//Proc of the 34th IEEE/CVF Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2021: 11557−11568
[14] 丁家满,刘楠,周蜀杰,等. 基于正则化的半监督弱标签分类方法[J]. 计算机学报,2022,45(1):69−81 Ding Jiaman, Liu Nan, Zhou Shujie, et al. Semi-supervised weak-label classification method by regularization[J]. Chinese Journal of Computer, 2022, 45(1): 69−81 (in Chinese)
[15] Van Rooyen B, Williamson R C. A Theory of learning with corrupted labels[J]. Journal of Machine Learning Research, 2017, 18(1): 8501−8550
[16] Goldberger J, Ben-Reuven E. Training deep neural-networks using a noise adaptation layer[C/OL]//Proc of the 5th Int Conf on Learning Representations. 2017[2023-01-13].https://openreview.net/forum?id=H12GRgcxg
[17] Patrini G, Rozza A, Krishna Menon A, et al. Making deep neural networks robust to label noise: A loss correction approach[C]//Proc of the 16th IEEE Int Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2017: 1944−1952
[18] Hendrycks D, Mazeika M, Wilson D, et al. Using trusted data to train deep networks on labels corrupted by severe noise[C]//Proc of the 31st Advances in Neural Information Processing Systems. Cambridge, MA: MIT, 2018: 10456−10465
[19] Li Yuncheng, Yang Jianchao, Song Yale, et al. Learning from noisy labels with distillation[C]//Proc of the 16th IEEE Int Conf on Computer Vision. Piscataway, NJ: IEEE, 2017: 1910−1918
[20] Algan G, Ulusoy I. Meta soft label generation for noisy labels[C]//Proc of the 25th IEEE Int Conf on Pattern Recognition. Piscataway, NJ: IEEE, 2021: 7142−7148
[21] Wang Zhen, Hu Guosheng, Hu Qinghua. Training noise-robust deep neural networks via meta-learning[C]//Proc of the 33rd IEEE/CVF Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2020: 4524−4533
[22] Passban P, Wu Yimeng, Rezagholizadeh M, et al. Alp-KD: Attention-based layer projection for knowledge distillation[C]//Proc of the 35th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2021: 13657−13665
[23] Passalis N, Tzelepi M, Tefas A. Heterogeneous knowledge distillation using information flow modeling[C]//Proc of the 33rd IEEE/CVF Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2020: 2339−2348
[24] Heo B, Lee M, Yun S, et al. Knowledge distillation with adversarial samples supporting decision boundary[C]//Proc of the 33rd AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2019: 3771−3778
[25] Fang Gongfan, Mo Kanya, Wang Xinchao, et al. Up to 100x faster data-free knowledge distillation[C]//Proc of the 36th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2022: 6597−6604
[26] 魏秀参,徐书林,安鹏,等. 面向增量分类的多示例学习[J]. 计算机研究与发展,2022,59(8):1723−1731 Wei Xiushen, Xu Shulin, An Peng, et al. Multi-instance learning with incremental classes[J]. Journal of Computer Research and Development, 2022, 59(8): 1723−1731 (in Chinese)
[27] Chen Pengguang, Liu Shu, Zhao Hengshuang, et al. Distilling knowledge via knowledge review[C]//Proc of the 34th IEEE/CVF Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2021: 5008−5017
[28] Xiao Tong, Xia Tian, Yang Yi, et al. Learning from massive noisy labeled data for image classification[C]//Proc of the 28th IEEE/CVF Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2015: 2691−2699
[29] Zhang Zhilu, Sabuncu M. Generalized cross entropy loss for training deep neural networks with noisy labels[C]//Proc of the 31st Advances in Neural Information Processing Systems. Cambridge, MA: MIT, 2018: 8778-8788
[30] Shu Jun, Xie Qi, Yi Lixuan, et al. Meta-weight-Net: Learning an explicit mapping for sample weighting[C]//Proc of the 32nd Advances in Neural Information Processing Systems. Cambridge, MA: MIT, 2019: 1917−1928
[31] Han Bo, Yao Quanming, Yu Xingrui, et al. Co-teaching: Robust training of deep neural networks with extremely noisy labels[C]//Proc of the 31st Advances in Neural Information Processing Systems. Cambridge, MA: MIT, 2018: 8527−8537
[32] Ren Mengye, Zeng Wenyuan, Yang Bin, et al. Learning to reweight examples for robust deep learning[C]//Proc of the 35th Int Conf on Machine Learning. New York: ACM, 2018: 4334−4343
[33] Tanaka D, Ikami D, Yamasaki T, et al. Joint optimization framework for learning with noisy labels[C]//Proc of the 31st IEEE/CVF Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2018: 5552−5560
[34] Reed S, Lee H, Anguelov D, et al. Training deep neural networks on noisy labels with bootstrapping[J]. arXiv preprint, arXiv: 1412.6596, 2014
[35] Arazo E, Ortego D, Albert P, et al. Unsupervised label noise modeling and loss correction[C]//Proc of the 36th Int Conf on Machine Learning. New York: ACM, 2019: 312−321
[36] Wu Yichen, Shu Jun, Xie Qi, et al. Learning to purify noisy labels via meta soft label corrector[C]//Proc of the 35th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2021: 10388−10396
-
期刊类型引用(68)
1. 陈泽明,方序鸿,李家叶,汪孟尧,陈爱芳,尹玲. 机器学习模型在城市内涝模拟预报中的应用综述. 人民珠江. 2025(01): 9-22 . 百度学术
2. 邱凯乐. 图信号处理综述. 物联网技术. 2025(05): 111-113 . 百度学术
3. 练培格,李英冰,刘波,冯晓珂. 基于多元时间序列动态图神经网络的交通速度预测. 地球信息科学学报. 2025(03): 636-652 . 百度学术
4. 许明家,孙龙,李爽,鲁程鹏. 基于图神经网络的地下水位动态模拟模型. 水文. 2025(01): 30-36 . 百度学术
5. 胡书林,张华军,邓小涛,王征华. 结合依存图卷积的中文文本相似度计算研究. 计算机工程. 2025(03): 76-85 . 百度学术
6. 朱海,谭文安,郭凯. 基于图卷积的云制造服务编码算法. 河南科技大学学报(自然科学版). 2024(01): 43-50+7 . 百度学术
7. 肖国庆,李雪琪,陈玥丹,唐卓,姜文君,李肯立. 大规模图神经网络研究综述. 计算机学报. 2024(01): 148-171 . 百度学术
8. 林晶晶,冶忠林,赵海兴,李卓然. 超图神经网络综述. 计算机研究与发展. 2024(02): 362-384 . 本站查看
9. 谢楠. 内容个性化推荐优化探索. 数字通信世界. 2024(01): 70-72 . 百度学术
10. 柳德云,李莹,周震,吉根林. 基于时空依赖关系和特征融合的弱监督视频异常检测. 数据采集与处理. 2024(01): 204-214 . 百度学术
11. 李挺,金福生,李荣华,王国仁,段焕中,路彦雄. Light-HGNN:用于圈层内容推荐的轻量同质超图神经网络. 计算机研究与发展. 2024(04): 877-888 . 本站查看
12. 杨洁祎 ,董一鸿 ,钱江波 . 基于图神经网络的小样本学习方法研究进展. 计算机研究与发展. 2024(04): 856-876 . 本站查看
13. 胡昊,孙爽,马鑫,李擎,徐鹏. 基于图注意力网络的城市内涝积水预测与研究. 人民黄河. 2024(04): 43-48 . 百度学术
14. 龙志,陈湘州. 基于图注意力LSTM深度学习的季度GDP预测应用. 湖南工程学院学报(社会科学版). 2024(01): 54-64+118 . 百度学术
15. 张陶,廖彬,于炯,李敏,孙瑞娜. 图神经网络节点分类任务基准测试及分析. 计算机科学. 2024(04): 132-150 . 百度学术
16. 刘润雨,贾路楠. 基于分班图神经网络的度不平衡节点分类. 信息技术与信息化. 2024(04): 114-117 . 百度学术
17. 袁立宁,蒋萍,莫嘉颖,刘钊. 基于二阶图卷积自编码器的图表示学习. 计算机工程与应用. 2024(10): 180-187 . 百度学术
18. 侯磊,刘金环,于旭,杜军威. 图神经网络研究综述. 计算机科学. 2024(06): 282-298 . 百度学术
19. 楚小茜,张建辉,张德升,苏珲. 基于改进GraphSAGE算法的浏览器指纹追踪. 计算机科学. 2024(06): 409-415 . 百度学术
20. 刘振威,黄影平,梁振明,杨静怡. 基于点云图卷积神经网络的3D目标检测. 上海理工大学学报. 2024(03): 320-330 . 百度学术
21. 张强,彭骨,薛陈斌. 基于改进图注意力网络的油井产量预测模型. 吉林大学学报(理学版). 2024(04): 933-942 . 百度学术
22. 李平,宋舒寒,张园,曹华伟,叶笑春,唐志敏. HSEGRL:一种分层可自解释的图表示学习模型. 计算机研究与发展. 2024(08): 1993-2007 . 本站查看
23. 焦鹏飞,陈舒欣,郭翾,何东晓,刘栋. 图神经常微分方程综述. 计算机研究与发展. 2024(08): 2045-2066 . 本站查看
24. 王长刚,王先伟,曹宇,李扬,吕琪,张耀心. 基于改进图注意力网络的电力系统脆弱性关键环节辨识. 电力系统保护与控制. 2024(15): 36-45 . 百度学术
25. 李航程,钟勇. 基于多特征驱动图注意卷积网络的关系抽取. 计算机应用. 2024(S1): 24-28 . 百度学术
26. 熊辛,涂志炜,唐韬,闵仕琦,冯雨欣,汤涛,叶海涛. 复杂场景下人体跌倒行为监测模型构建的研究. 中国数字医学. 2024(09): 91-96 . 百度学术
27. 李鑫,陆伟,马召祎,朱攀,康彬. 基于图注意力和改进Transformer的节点分类方法. 电子学报. 2024(08): 2799-2810 . 百度学术
28. 冯拓宇,刘佳宁,曹子奇,郭静,杨云祥. 社区发现方法研究综述. 中国电子科学研究院学报. 2024(06): 487-498+503 . 百度学术
29. 贺鸣,郭熹,秦守浩,张珂珂. 一种图智能应用开发平台及电信运营商应用实践. 邮电设计技术. 2024(10): 73-77 . 百度学术
30. 李鹏辉,翟正利,冯舒. 针对图神经网络的单节点扰动攻击. 计算机与数字工程. 2024(10): 3003-3008 . 百度学术
31. 孙秀娟,孙福振,李鹏程,王澳飞,王绍卿. 融合掩码自编码器的自适应增强序列推荐. 计算机科学与探索. 2024(12): 3324-3334 . 百度学术
32. 庞俊,程俊澳,林晓丽,王蒙湘. 基于动态超图小波神经网络的半监督超图节点分类. 计算机应用研究. 2024(12): 3735-3741 . 百度学术
33. 周宇,肖健梅,王锡淮. 基于GCN和HGP-SL的电力系统暂态稳定评估. 电气工程学报. 2024(04): 246-254 . 百度学术
34. 张蕾,钱峰,赵姝,陈洁,杨雪洁,张燕平. 基于卷积图神经网络的多粒度表示学习框架. 南京大学学报(自然科学). 2023(01): 43-54 . 百度学术
35. 李洁莹,马佳瑛. 英语翻译机器人翻译错误自动检测系统研究. 自动化与仪器仪表. 2023(02): 242-246 . 百度学术
36. 蒋玉英,陈心雨,李广明,王飞,葛宏义. 图神经网络及其在图像处理领域的研究进展. 计算机工程与应用. 2023(07): 15-30 . 百度学术
37. 陈东洋,郭进利. 基于图注意力的高阶网络节点分类方法. 计算机应用研究. 2023(04): 1095-1100+1136 . 百度学术
38. 韩冰,张鑫云,任爽. 基于三维点云的卷积运算综述. 计算机研究与发展. 2023(04): 873-902 . 本站查看
39. 马东岭,吴鼎辉,陈家阁,姚国标,毛力波. 基于增强图注意力网络的高光谱影像分类方法. 山东建筑大学学报. 2023(02): 97-104 . 百度学术
40. 尹拓凯,岳文静,陈志. 面向拜占庭攻击的认知用户分类. 计算机技术与发展. 2023(04): 102-107 . 百度学术
41. 安波. 结构信息增强的文献分类方法研究. 农业图书情报学报. 2023(03): 15-24 . 百度学术
42. 代祖华,刘园园,狄世龙. 语义增强的图神经网络方面级文本情感分析. 计算机工程. 2023(06): 71-80 . 百度学术
43. 袁满,褚润夫,袁靖舒,陈萍. 融合上下文信息的图神经网络推荐模型研究. 吉林大学学报(信息科学版). 2023(04): 693-700 . 百度学术
44. 刘佰阳,郑宇,魏琳,刘梅,金龙. 面向模型未知的冗余机器人运动规划方案. 兰州大学学报(自然科学版). 2023(04): 506-511 . 百度学术
45. 梁龙跃,王浩竹. 基于图卷积神经网络的个人信用风险预测. 计算机工程与应用. 2023(17): 275-285 . 百度学术
46. 陈淑娴. 基于知识图谱与图神经网络下无线业务预测手段优化. 软件. 2023(07): 83-85 . 百度学术
47. 马华,姜伟,陈明,钟世杰. 基于图滤波器的符号属性图链路关系预测算法. 计算机技术与发展. 2023(09): 126-132 . 百度学术
48. 柳博文,刘星. 多尺度卷积神经网络模型优化在矿物识别中的应用. 矿物岩石. 2023(03): 10-19 . 百度学术
49. 田春生,陈雷,王源,王硕,周婧,王卓立,庞永江,杜忠. 基于图神经网络的电子设计自动化技术研究进展. 电子与信息学报. 2023(09): 3069-3082 . 百度学术
50. 张华辉,邱晓莹,徐航. 文本情感分类方法研究综述. 延边大学学报(自然科学版). 2023(03): 275-282 . 百度学术
51. 谷振宇,陈聪,郑家佳,孙棣华. 考虑时空相似性的动态图卷积神经网络交通流预测. 控制与决策. 2023(12): 3399-3408 . 百度学术
52. 王松,骆莹,刘新民. 基于文本语义与关联网络双链路融合的用户生成内容价值早期识别研究. 数据分析与知识发现. 2023(11): 101-113 . 百度学术
53. 曹汉童,陈璟. 融合Doc2vec与GCN的多类型蛋白质相互作用预测方法. 智能系统学报. 2023(06): 1165-1172 . 百度学术
54. 丁红发,傅培旺,彭长根,龙士工,吴宁博. 混洗差分隐私保护的度分布直方图发布算法. 西安电子科技大学学报. 2023(06): 219-236 . 百度学术
55. 马汉达,梁文德. 基于左归一化图卷积网络的推荐模型. 计算机应用. 2023(S2): 111-116 . 百度学术
56. 闫明路,连航宇,朱丹青,程平. 图计算在反洗钱领域的应用. 金融会计. 2023(10): 65-72 . 百度学术
57. 刘俊奇. 联合编码属性图聚类算法研究. 信息记录材料. 2022(04): 176-178 . 百度学术
58. 熊晗. 图神经网络的开发与应用研究. 电视技术. 2022(04): 142-145 . 百度学术
59. 杜雨晅,王巍,张闯,郑小丽,苏嘉涛,王杨洋. 基于自适应图卷积注意力神经协同推荐算法. 计算机应用研究. 2022(06): 1760-1766 . 百度学术
60. 任嘉睿,张海燕,朱梦涵,马波. 基于元图卷积的异质网络嵌入学习算法. 计算机研究与发展. 2022(08): 1683-1693 . 本站查看
61. 徐上上,孙福振,王绍卿,董家玮,吴田慧. 基于图神经网络的异构信任推荐算法. 计算机工程. 2022(09): 89-95+104 . 百度学术
62. 张博,宋淑彩,赵一航. 基于GCN的节点分类研究. 河北建筑工程学院学报. 2022(02): 196-200 . 百度学术
63. 卢锦玲,周阳,颜禄涵,张艺萱. 基于残差时空图神经网络的电力系统暂态稳定评估. 电力科学与工程. 2022(09): 54-64 . 百度学术
64. 罗袆沅,蒋亚楠,许强,廖露,燕翱翔,刘陈伟. 基于深度学习的滑坡位移时空预测. 测绘学报. 2022(10): 2160-2170 . 百度学术
65. 邢小雷,赵超,郑江文,温可欣. 图神经网络预训练综述. 小型微型计算机系统. 2022(12): 2487-2498 . 百度学术
66. 闫如雪,余泽霖,刘泽宇. 基于高效层级学习图卷积网络的高光谱图像分类. 电脑与信息技术. 2022(06): 15-17+50 . 百度学术
67. 邹长宽,田小平,张晓燕,张雨晴,杜磊. 基于GraphSage节点度重要性聚合的网络节点分类研究. 科学技术与工程. 2022(32): 14306-14312 . 百度学术
68. 王宏朝,李魏琦,郭耀华,刘瀛,焦秀秀. 基于安全监测公共服务平台的企业供应链安全风险预控方法研究. 物流科技. 2022(20): 28-32 . 百度学术
其他类型引用(305)