-
摘要:
在科学计算和系统工程等领域,稀疏矩阵向量乘(sparse matrix-vector multiplication,SpMV)占据着极其重要的位置. 受限于矩阵稀疏性所导致的访存不规则性,向量优化一直是SpMV的难点. 针对此问题,进行深入分析并且总结影响SpMV向量化效率的主要因素. 除却稀疏矩阵内非零元分布的不规则,不同稀疏矩阵之间的非零元分布特征亦有明显不同,导致单一的向量优化策略难以适用于多种不同特征的稀疏矩阵. 另一方面,多样化向量硬件在向量特性和指令上的差异,影响了SpMV向量优化方法的通用性. 把不规则的稀疏矩阵映射到规则的向量硬件上进行计算,是SpMV向量化面临的最主要挑战. 基于此,提出一种基于混合向量化方法的SpMV优化机制(hybrid vectorization-optimized mechanism of SpMV,HVMS). HVMS首先对向量硬件的特性进行抽象建模,并基于抽象出的基本操作,设计相应的规则指导稀疏矩阵进行规则化转换. 按照不同的矩阵特征,HVMS将稀疏矩阵划分为不同的部分,弱化稀疏矩阵的不规则程度,并引入不同的优化策略最大化SpMV的向量化效率,从而提升性能. 基于Intel Xeon平台,在30个常用稀疏矩阵上对HVMS进行实验分析. 结果表明,相比现有代表性工作如CVR,SELL-C-σ,Intel MKL,HVMS分别获得1.60倍、1.72倍和1.93倍的平均加速比.
Abstract:Sparse matrix-vector multiplication (SpMV) plays an important role in a wide variety of scientific and engineering applications.Executing SpMV efficiently on vector processors is challenging because of the irregular memory access of sparse matrices. We conduct a detailed analysis of the main factors that have impact on the efficiency of SpMV vectorization.In addition to the irregular distribution of non-zero elements within sparse matrices, different sparse matrices also exhibit huge variations in the distribution characteristics of non-zero elements. Therefore, it is difficult to apply a universal vector optimization method for matrices with diverse characteristics. Furthermore, there is a big difference in vector computing and vector instructions for various vector processors. The primary challenge of SpMV vectorization lies in mapping the irregular sparse matrices onto the regular vector processor. In this paper, we propose a hybrid vectorization-optimized mechanism of SpMV(HVMS). HVMS models the characteristics of vector processors and designs corresponding rules based on the abstracted basic operations to guide the regularization conversion of sparse matrices. HVMS divides the matrix into different parts according to the different characteristics. For each part, the non-zero distribution can be less irregular and then HVMS introduces corresponding optimization mechanisms to boost the vectorization efficiency of SpMV. We implement and evaluate HVMS on an Intel Xeon processor and compare it with three state-of-the-art approaches using 30 sparse matrices. Experimental results show that HVMS can achieve an average speedup of 1.60x, 1.72x, and 1.93x over CVR, SELL-C-σ, and Intel MKL, respectively.
-
Keywords:
- SpMV /
- vectorization /
- sparse matrices /
- SIMD /
- multi-core system
-
-
表 1 部分常用的向量指令
Table 1 Some Common Vector Instructions
指令操作 指令行为说明 load(&addr) 将数据(例如双精度浮点类型的数据)从内存地址addr处加载到寄存器. fmadd_pd(Reg1, Reg2, Reg3) 执行向量乘加操作,即目标寄存器的值=Reg1×Reg2 + Reg3. gather(idx, &array) 使用idx寄存器提供的索引值从数组array中gather多个数据(例如8个double数据),并将其加载入寄存器中. scatter(&array, idx, Reg) 使用idx寄存器提供的索引值从Reg中scatter多个数据(例如8个double数据),并将其存储到内存数组array. reduction_add(Reg) 返回将寄存器Reg内所有值相加后的结果. mask_reduction_add(Mask, Reg) 利用给定的掩码值(Mask)将寄存器Reg内相应位置的值相加并返回. 表 2 实验平台的配置信息
Table 2 Configuration Information of Experimental Platforms
参数 Intel Xeon Intel Core 处理器 Gold 6130 (Skylake) i9-10940X
(Cascade Lake)处理器个数 2 1 核心数 16 14 每核线程数 2 2 L1 cache大小/KB 32(I)+32 (D) 32 (I)+32 (D) L2 cache大小/MB 1 1 L3 cache大小/MB 22 19 内存大小/GB 126 62 操作系统 Ubuntu18.04.5 Ubuntu18.04.3 注:I表示指令缓存,D表示数据缓存. 表 3 评测数据集
Table 3 Datasets Used for Evaluation
数据集 维度 非零元个数 平均每行非零元个数 cage15 5.1×106×5.1×106 99×106 19 caidaRouterLevel 192×103×192×103 1.2×106 6 c-big 345×103×345×103 2.3×106 6 circuit5M 5.5×106×5.5×106 59×106 10 citationCiteseer 268×103×268×103 2.3×106 8 coAuthorsDBLP 299×103×299×103 1.9×106 6 com-DBLP 317×103×317×103 2.0×106 6 com-Orkut 3×106×3×106 234×106 76 com-Youtube 1.1×106×1.1×106 5.9×106 5 dblp-2010 326×103×326×103 1.6×106 4 flickr 820×103×820×103 9.8×106 11 wiki-topcats 1×106×1×106 28×106 15 higgs-twitter 456×103×456×103 14×106 32 in-2004 1×106×1×106 16×106 12 language 399×103×399×103 1.2×106 3 loc-Gowalla 196×103×196×103 1.9×106 9 mip1 66×103×66×103 10×106 155 mouse_gene 45×103×45×103 28×106 642 NotreDame_actors 392×103×127×103 1.5×106 3 nxp1 414×103×414×103 2.6×106 6 preferential 100×103×100×103 1×106 9 rail4284 4×103×1×106 11×106 2633 road_central 14×106×14×106 33×106 2 pwtk 217×103×217×103 11×106 52 soc-Pokec 1.6×106×1.6×106 30×106 18 soc-sign-epinions 131×103×131×103 0.8×106 6 sx-superuser 194×103×194×103 0.9×106 4 webbase-1M 1×106×1×106 3.1×106 3 ldoor 952×103×952×103 42×106 44 CurlCurl_2 806×103×806×103 8×106 11 表 4 3种方案平摊格式转换开销所需的SpMV迭代次数
Table 4 SpMV Iterations that Need to Amortize the Format Conversion Overhead on Three Schemes
数据集 CVR SELL-C-σ HVMS
(本文)cage15 ∞ ∞ ∞ caidaRouterLevel ∞ 161.47 4.16 c-big 1.73 105.80 3.29 circuit5M 2.66 ∞ 3.56 citationCiteseer ∞ 172.75 16.08 coAuthorsDBLP ∞ 88.11 4.01 com-DBLP ∞ 119.02 6.60 com-Orkut ∞ 474.72 7.35 com-Youtube 2.06 96.67 4.09 dblp-2010 ∞ 133.69 7.50 flickr 2.53 21.63 4.09 wiki-topcats 369.29 ∞ 78.67 higgs-twitter 51.17 71.15 46.99 in-2004 19.28 ∞ 56.19 language 8.14 ∞ 3.73 loc-Gowalla 3.50 11015.26 1.98 mip1 32.85 ∞ 115.37 mouse_gene 60.95 ∞ 133.37 NotreDame_actors ∞ 89.13 4.62 nxp1 ∞ ∞ 28.12 preferential 1.22 215.17 1.93 rail4284 12.25 ∞ 24.19 road_central 28.39 ∞ ∞ pwtk 153.19 186.86 ∞ soc-Pokec ∞ 84.20 19.49 soc-sign-epinions 1.66 137.77 2.38 sx-superuser 11.00 193.27 2.95 webbase-1M 4.61 98.82 6.49 ldoor ∞ ∞ ∞ CurlCurl_2 ∞ 118.43 ∞ 注:加粗数字表示3种方案中的最少迭代次数,亦即最优方案. -
[1] Zilli G. Iterative methods for solving sparse linear systems with a parallel preconditioner[J]. International Journal of Computer Mathematics, 1992, 44(1/2/3/4): 111−119
[2] Diaz J, Munoz-Caro C, Nino A. A survey of parallel programming models and tools in the multi and many-core era[J]. IEEE Transactions on Parallel and Distributed Systems, 2012, 23(8): 1369−1386 doi: 10.1109/TPDS.2011.308
[3] Chrysos G. Intel® Xeon PhiTM coprocessor-the architecture[EB/OL]. 2014[2023-07-31]. http://gec.di.uminho.pt/minf/cpd1314/SCD/Intel_Xeon-PhiArch.pdf
[4] Anderson C S, Zhang Jingwei, Cornea M. Enhanced vector math support on the Intel® avx-512 architecture[C]//Proc of the 25th Symp on Computer Arithmetic (ARITH). Piscataway, NJ: IEEE, 2018: 120−124
[5] Reddy V G. NEON technology introduction[J]. ARM Corporation, 2008, 4(1): 1−33
[6] Wang Endong, Zhang Qing, Shen Bo, et al. Intel math kernel library[EB/OL]. 2014[2023-06-13].https://link.springer.com/chapter/10.1007/978-3-319-06486-4_7
[7] Liu Weifeng, Vinter B. CSR5: An efficient storage format for cross-platform sparse matrix-vector multiplication[C]//Proc of the 29th Int Conf on Supercomputing. New York: ACM, 2015: 339−350
[8] Xie Biwei, Zhan Jianfeng, Liu Xu, et al. CVR: Efficient vectorization of SpMV on x86 processors[C]//Proc of the 16th Annual IEEE/ACM Int Symp on Code Generation and Optimization. New York: ACM, 2018: 149−162
[9] Kreutzer M, Hager G, Wellein G, et al. A unified sparse matrix data format for efficient general sparse matrix-vector multiplication on modern processors with wide SIMD units[J]. SIAM Journal on Scientific Computing, 2014, 36(5): C401−C423 doi: 10.1137/130930352
[10] Flynn M J. Some computer organizations and their effectiveness[J]. IEEE Transactions on Computers, 1972, 21(9): 948−960
[11] Lomont C. Introduction to Intel advanced vector extensions[EB/OL]. 2011[2023-06-13].https://hpc.llnl.gov/sites/default/files/intelAVXintro.pdf
[12] Oberman S, Favor G, Weber F. AMD 3DNow! Technology: Architecture and implementations[J]. IEEE Micro, 1999, 19(2): 37−48 doi: 10.1109/40.755466
[13] Luebke D, Harris M, Govindaraju N, et al. GPGPU: General-purpose computation on graphics hardware[C/OL]//Proc of the 2006 ACM/IEEE Conf on Supercomputing. New York: ACM, 2006[2023-08-04].https://dl.acm.org/doi/10.1145/1188455.1188672
[14] Davis T A, Hu Yifan. The University of Florida sparse matrix collection[J]. ACM Transactions on Mathematical Software, 2011, 38(1): 1−25
[15] Li Chenyang, Xia Tian, Zhao Wenzhe, et al. SpV8: Pursuing optimal vectorization and regular computation pattern in SpMV[C]//Proc of the 58th ACM/IEEE Design Automation Conf (DAC). Piscataway, NJ: IEEE, 2021: 661−666
[16] Bian Haodong, Huang Jianqiang, Liu Lingbin, et al. ALBUS: A method for efficiently processing SpMV using SIMD and load balancing[J]. Future Generation Computer Systems, 2021, 116: 371−392 doi: 10.1016/j.future.2020.10.036
[17] Bian Haodong, Huang Jianqiang, Dong Runting, et al. CSR2: A new format for SIMD-accelerated SpMV[C]//Proc of the 20th IEEE/ACM Int Symp on Cluster, Cloud and Internet Computing (CCGRID). Piscataway, NJ: IEEE, 2020: 350−359
[18] Tang Waiteng, Zhao Ruizhe, Lu Mian, et al. Optimizing and auto-tuning scale-free sparse matrix-vector multiplication on Intel Xeon Phi[C]//Proc of the 13th Annual IEEE/ACM Int Symp on Code Generation and Optimization. Piscataway, NJ: IEEE, 2015: 136−145
[19] Eberhardt R, Hoemmen M. Optimization of block sparse matrix-vector multiplication on shared-memory parallel architectures[C]//Proc of the 2016 IEEE Int Parallel and Distributed Processing Symp Workshops (IPDPSW). Piscataway, NJ: IEEE, 2016: 663−672
[20] Yan Shengen, Li Chao, Zhang Yunquan, et al. yaSpMV: Yet another SpMV framework on GPUS[J]. ACM SIGPLAN Notices, 2014, 49(8): 107−118 doi: 10.1145/2692916.2555255
[21] Merrill D, Garland M. Merge-based parallel sparse matrix-vector multiplication[C]//Proc of the 2016 Int Conf for High Performance Computing, Networking, Storage and Analysis. Piscataway, NJ: IEEE, 2016: 678−689
[22] Yesil S, Heidarshenas A, Morrison A, et al. Speeding up SpMV for power-law graph analytics by enhancing locality & vectorization[C/OL]//Proc of the 2020 Int Conf for High Performance Computing, Networking, Storage and Analysis. Piscataway, NJ: IEEE, 2020[2023-07-31].https://ieeexplore.ieee.org/document/9355205
[23] Elafrou A, Goumas G, Koziris N. Conflict-free symmetric sparse matrix-vector multiplication on multicore architectures[C/OL]//Proc of the 2019 Int Conf for High Performance Computing, Networking, Storage and Analysis. New York: ACM, 2019[2023-07-31].https://dl.acm.org/doi/10.1145/3295500.3356148
[24] Fei Xiang, Zhang Youhui. Regu2D: Accelerating vectorization of SpMV on Intel processors through 2D-partitioning and regular arrangement[C/OL]//Proc of the 50th Int Conf on Parallel Processing. New York: ACM, 2021[2023-07-31].https://dl.acm.org/doi/10.1145/3472456.3472479
[25] Liu Changxi, Xie Biwei, Liu Xin, et al. Towards efficient SpMV on sunway manycore architectures[C]//Proc of the 2018 Int Conf on Supercomputing. New York: ACM, 2018: 363−373
[26] Buono D, Petrini F, Checconi F, et al. Optimizing sparse matrix-vector multiplication for large-scale data analytics[C/OL]//Proc of the 2016 Int Conf on Supercomputing. New York: ACM, 2016[2023-07-31].https://dl.acm.org/doi/10.1145/2925426.2926278
[27] Umuroglu Y, Jahre M. An energy efficient column-major backend for FPGA SpMV accelerators[C]//Proc of the 32nd Int Conf on Computer Design (ICCD). Piscataway, NJ: IEEE, 2014: 432−439
[28] Liu Xing, Smelyanskiy M, Chow E, et al. Efficient sparse matrix-vector multiplication on x86-based many-core processors[C]//Proc of the 27th Int ACM Conf on Int Conf on Supercomputing. New York: ACM, 2013: 273−282
[29] Li Kenli, Yang Wangdong, Li Keqin. Performance analysis and optimization for SpMV on GPU using probabilistic modeling[J]. IEEE Transactions on Parallel and Distributed Systems, 2014, 26(1): 196−205
[30] Niu Yuyao, Lu Zhengyang, Dong Meichen, et al. TileSpMV: A tiled algorithm for sparse matrix-vector multiplication on GPUS[C]//Proc of the 2021 IEEE Int Parallel and Distributed Processing Symp (IPDPS). Piscataway, NJ: IEEE, 2021: 68−78
[31] Greathouse J L, Daga M. Efficient sparse matrix-vector multiplication on GPUs using the CSR storage format[C]//Proc of the 2014 Int Conf for High Performance Computing, Networking, Storage and Analysis. Piscataway, NJ: IEEE, 2014: 769−780
[32] Li Jiajia, Tan Guangming, Chen Mingyu, et al. SMAT: An input adaptive auto-tuner for sparse matrix-vector multiplication[C]//Proc of the 34th ACM SIGPLAN Conf on Programming Language Design and Implementation. New York: ACM, 2013: 117−126
[33] Zhao Yue, Li Jiajia, Liao Chunhua, et al. Bridging the gap between deep learning and sparse matrix format selection[C]//Proc of the 23rd ACM SIGPLAN Symp on Principles and Practice of Parallel Programming. New York: ACM, 2018: 94−108
[34] Feng Siying, Sun Jiawen, Pal S, et al. Cosparse: A software and hardware reconfigurable SpMV framework for graph analytics[C]//Proc of the 58th ACM/IEEE Design Automation Conf (DAC). Piscataway, NJ: IEEE, 2021: 949−954
[35] Tang Waiteng, Zhao Ruizhe, Lu Mian, et al. Optimizing and auto-tuning scale-free sparse matrix-vector multiplication on Intel Xeon Phi[C]//Proc of the 13th Annual IEEE/ACM Int Symp on Code Generation and Optimization. New York: ACM, 2015: 136−145
[36] Zhao Yue, Zhou Weijie, Shen Xipeng, et al. Overhead-conscious format selection for SpMV-based applications[C]//Proc of the 2018 IEEE Int Parallel and Distributed Processing Symp (IPDPS). Piscataway, NJ: IEEE, 2018: 950−959
[37] Benatia A, Ji Weixing, Wang Yizhuo, et al. Sparse matrix format selection with multiclass svm for SpMV on GPU[C]//Proc of the 45th Int Conf on Parallel Processing (ICPP). Piscataway, NJ: IEEE, 2016: 496−505
[38] 谢震,谭光明,孙凝晖. 基于PPR 模型的稀疏矩阵向量乘及卷积性能优化研究[J]. 计 算 机 研 究 与 发 展,2021,58(3):445−457 Xie Zhen, Tan Guangming, Sun Ninghui. Research on optimal performance of sparse matrix-vector multiplication and convoulution using the probability-process-RAM model[J]. Journal of Computer Research and Development, 2021, 58(3): 445−457(in Chinese)
[39] Choi J W, Singh A, Vuduc R W. Model-driven autotuning of sparse matrix-vector multiply on GPUS[J]. ACM SIGPLAN Notices, 2010, 45(5): 115−126 doi: 10.1145/1837853.1693471
[40] Vuduc R, Demmel J W, Yelick K A. OSKI: A library of automatically tuned sparse matrix kernels[J]. Journal of Physics: Conference Series. 2005, 16(1): 521−530
-
期刊类型引用(68)
1. 陈泽明,方序鸿,李家叶,汪孟尧,陈爱芳,尹玲. 机器学习模型在城市内涝模拟预报中的应用综述. 人民珠江. 2025(01): 9-22 . 百度学术
2. 邱凯乐. 图信号处理综述. 物联网技术. 2025(05): 111-113 . 百度学术
3. 练培格,李英冰,刘波,冯晓珂. 基于多元时间序列动态图神经网络的交通速度预测. 地球信息科学学报. 2025(03): 636-652 . 百度学术
4. 许明家,孙龙,李爽,鲁程鹏. 基于图神经网络的地下水位动态模拟模型. 水文. 2025(01): 30-36 . 百度学术
5. 胡书林,张华军,邓小涛,王征华. 结合依存图卷积的中文文本相似度计算研究. 计算机工程. 2025(03): 76-85 . 百度学术
6. 朱海,谭文安,郭凯. 基于图卷积的云制造服务编码算法. 河南科技大学学报(自然科学版). 2024(01): 43-50+7 . 百度学术
7. 肖国庆,李雪琪,陈玥丹,唐卓,姜文君,李肯立. 大规模图神经网络研究综述. 计算机学报. 2024(01): 148-171 . 百度学术
8. 林晶晶,冶忠林,赵海兴,李卓然. 超图神经网络综述. 计算机研究与发展. 2024(02): 362-384 . 本站查看
9. 谢楠. 内容个性化推荐优化探索. 数字通信世界. 2024(01): 70-72 . 百度学术
10. 柳德云,李莹,周震,吉根林. 基于时空依赖关系和特征融合的弱监督视频异常检测. 数据采集与处理. 2024(01): 204-214 . 百度学术
11. 李挺,金福生,李荣华,王国仁,段焕中,路彦雄. Light-HGNN:用于圈层内容推荐的轻量同质超图神经网络. 计算机研究与发展. 2024(04): 877-888 . 本站查看
12. 杨洁祎 ,董一鸿 ,钱江波 . 基于图神经网络的小样本学习方法研究进展. 计算机研究与发展. 2024(04): 856-876 . 本站查看
13. 胡昊,孙爽,马鑫,李擎,徐鹏. 基于图注意力网络的城市内涝积水预测与研究. 人民黄河. 2024(04): 43-48 . 百度学术
14. 龙志,陈湘州. 基于图注意力LSTM深度学习的季度GDP预测应用. 湖南工程学院学报(社会科学版). 2024(01): 54-64+118 . 百度学术
15. 张陶,廖彬,于炯,李敏,孙瑞娜. 图神经网络节点分类任务基准测试及分析. 计算机科学. 2024(04): 132-150 . 百度学术
16. 刘润雨,贾路楠. 基于分班图神经网络的度不平衡节点分类. 信息技术与信息化. 2024(04): 114-117 . 百度学术
17. 袁立宁,蒋萍,莫嘉颖,刘钊. 基于二阶图卷积自编码器的图表示学习. 计算机工程与应用. 2024(10): 180-187 . 百度学术
18. 侯磊,刘金环,于旭,杜军威. 图神经网络研究综述. 计算机科学. 2024(06): 282-298 . 百度学术
19. 楚小茜,张建辉,张德升,苏珲. 基于改进GraphSAGE算法的浏览器指纹追踪. 计算机科学. 2024(06): 409-415 . 百度学术
20. 刘振威,黄影平,梁振明,杨静怡. 基于点云图卷积神经网络的3D目标检测. 上海理工大学学报. 2024(03): 320-330 . 百度学术
21. 张强,彭骨,薛陈斌. 基于改进图注意力网络的油井产量预测模型. 吉林大学学报(理学版). 2024(04): 933-942 . 百度学术
22. 李平,宋舒寒,张园,曹华伟,叶笑春,唐志敏. HSEGRL:一种分层可自解释的图表示学习模型. 计算机研究与发展. 2024(08): 1993-2007 . 本站查看
23. 焦鹏飞,陈舒欣,郭翾,何东晓,刘栋. 图神经常微分方程综述. 计算机研究与发展. 2024(08): 2045-2066 . 本站查看
24. 王长刚,王先伟,曹宇,李扬,吕琪,张耀心. 基于改进图注意力网络的电力系统脆弱性关键环节辨识. 电力系统保护与控制. 2024(15): 36-45 . 百度学术
25. 李航程,钟勇. 基于多特征驱动图注意卷积网络的关系抽取. 计算机应用. 2024(S1): 24-28 . 百度学术
26. 熊辛,涂志炜,唐韬,闵仕琦,冯雨欣,汤涛,叶海涛. 复杂场景下人体跌倒行为监测模型构建的研究. 中国数字医学. 2024(09): 91-96 . 百度学术
27. 李鑫,陆伟,马召祎,朱攀,康彬. 基于图注意力和改进Transformer的节点分类方法. 电子学报. 2024(08): 2799-2810 . 百度学术
28. 冯拓宇,刘佳宁,曹子奇,郭静,杨云祥. 社区发现方法研究综述. 中国电子科学研究院学报. 2024(06): 487-498+503 . 百度学术
29. 贺鸣,郭熹,秦守浩,张珂珂. 一种图智能应用开发平台及电信运营商应用实践. 邮电设计技术. 2024(10): 73-77 . 百度学术
30. 李鹏辉,翟正利,冯舒. 针对图神经网络的单节点扰动攻击. 计算机与数字工程. 2024(10): 3003-3008 . 百度学术
31. 孙秀娟,孙福振,李鹏程,王澳飞,王绍卿. 融合掩码自编码器的自适应增强序列推荐. 计算机科学与探索. 2024(12): 3324-3334 . 百度学术
32. 庞俊,程俊澳,林晓丽,王蒙湘. 基于动态超图小波神经网络的半监督超图节点分类. 计算机应用研究. 2024(12): 3735-3741 . 百度学术
33. 周宇,肖健梅,王锡淮. 基于GCN和HGP-SL的电力系统暂态稳定评估. 电气工程学报. 2024(04): 246-254 . 百度学术
34. 张蕾,钱峰,赵姝,陈洁,杨雪洁,张燕平. 基于卷积图神经网络的多粒度表示学习框架. 南京大学学报(自然科学). 2023(01): 43-54 . 百度学术
35. 李洁莹,马佳瑛. 英语翻译机器人翻译错误自动检测系统研究. 自动化与仪器仪表. 2023(02): 242-246 . 百度学术
36. 蒋玉英,陈心雨,李广明,王飞,葛宏义. 图神经网络及其在图像处理领域的研究进展. 计算机工程与应用. 2023(07): 15-30 . 百度学术
37. 陈东洋,郭进利. 基于图注意力的高阶网络节点分类方法. 计算机应用研究. 2023(04): 1095-1100+1136 . 百度学术
38. 韩冰,张鑫云,任爽. 基于三维点云的卷积运算综述. 计算机研究与发展. 2023(04): 873-902 . 本站查看
39. 马东岭,吴鼎辉,陈家阁,姚国标,毛力波. 基于增强图注意力网络的高光谱影像分类方法. 山东建筑大学学报. 2023(02): 97-104 . 百度学术
40. 尹拓凯,岳文静,陈志. 面向拜占庭攻击的认知用户分类. 计算机技术与发展. 2023(04): 102-107 . 百度学术
41. 安波. 结构信息增强的文献分类方法研究. 农业图书情报学报. 2023(03): 15-24 . 百度学术
42. 代祖华,刘园园,狄世龙. 语义增强的图神经网络方面级文本情感分析. 计算机工程. 2023(06): 71-80 . 百度学术
43. 袁满,褚润夫,袁靖舒,陈萍. 融合上下文信息的图神经网络推荐模型研究. 吉林大学学报(信息科学版). 2023(04): 693-700 . 百度学术
44. 刘佰阳,郑宇,魏琳,刘梅,金龙. 面向模型未知的冗余机器人运动规划方案. 兰州大学学报(自然科学版). 2023(04): 506-511 . 百度学术
45. 梁龙跃,王浩竹. 基于图卷积神经网络的个人信用风险预测. 计算机工程与应用. 2023(17): 275-285 . 百度学术
46. 陈淑娴. 基于知识图谱与图神经网络下无线业务预测手段优化. 软件. 2023(07): 83-85 . 百度学术
47. 马华,姜伟,陈明,钟世杰. 基于图滤波器的符号属性图链路关系预测算法. 计算机技术与发展. 2023(09): 126-132 . 百度学术
48. 柳博文,刘星. 多尺度卷积神经网络模型优化在矿物识别中的应用. 矿物岩石. 2023(03): 10-19 . 百度学术
49. 田春生,陈雷,王源,王硕,周婧,王卓立,庞永江,杜忠. 基于图神经网络的电子设计自动化技术研究进展. 电子与信息学报. 2023(09): 3069-3082 . 百度学术
50. 张华辉,邱晓莹,徐航. 文本情感分类方法研究综述. 延边大学学报(自然科学版). 2023(03): 275-282 . 百度学术
51. 谷振宇,陈聪,郑家佳,孙棣华. 考虑时空相似性的动态图卷积神经网络交通流预测. 控制与决策. 2023(12): 3399-3408 . 百度学术
52. 王松,骆莹,刘新民. 基于文本语义与关联网络双链路融合的用户生成内容价值早期识别研究. 数据分析与知识发现. 2023(11): 101-113 . 百度学术
53. 曹汉童,陈璟. 融合Doc2vec与GCN的多类型蛋白质相互作用预测方法. 智能系统学报. 2023(06): 1165-1172 . 百度学术
54. 丁红发,傅培旺,彭长根,龙士工,吴宁博. 混洗差分隐私保护的度分布直方图发布算法. 西安电子科技大学学报. 2023(06): 219-236 . 百度学术
55. 马汉达,梁文德. 基于左归一化图卷积网络的推荐模型. 计算机应用. 2023(S2): 111-116 . 百度学术
56. 闫明路,连航宇,朱丹青,程平. 图计算在反洗钱领域的应用. 金融会计. 2023(10): 65-72 . 百度学术
57. 刘俊奇. 联合编码属性图聚类算法研究. 信息记录材料. 2022(04): 176-178 . 百度学术
58. 熊晗. 图神经网络的开发与应用研究. 电视技术. 2022(04): 142-145 . 百度学术
59. 杜雨晅,王巍,张闯,郑小丽,苏嘉涛,王杨洋. 基于自适应图卷积注意力神经协同推荐算法. 计算机应用研究. 2022(06): 1760-1766 . 百度学术
60. 任嘉睿,张海燕,朱梦涵,马波. 基于元图卷积的异质网络嵌入学习算法. 计算机研究与发展. 2022(08): 1683-1693 . 本站查看
61. 徐上上,孙福振,王绍卿,董家玮,吴田慧. 基于图神经网络的异构信任推荐算法. 计算机工程. 2022(09): 89-95+104 . 百度学术
62. 张博,宋淑彩,赵一航. 基于GCN的节点分类研究. 河北建筑工程学院学报. 2022(02): 196-200 . 百度学术
63. 卢锦玲,周阳,颜禄涵,张艺萱. 基于残差时空图神经网络的电力系统暂态稳定评估. 电力科学与工程. 2022(09): 54-64 . 百度学术
64. 罗袆沅,蒋亚楠,许强,廖露,燕翱翔,刘陈伟. 基于深度学习的滑坡位移时空预测. 测绘学报. 2022(10): 2160-2170 . 百度学术
65. 邢小雷,赵超,郑江文,温可欣. 图神经网络预训练综述. 小型微型计算机系统. 2022(12): 2487-2498 . 百度学术
66. 闫如雪,余泽霖,刘泽宇. 基于高效层级学习图卷积网络的高光谱图像分类. 电脑与信息技术. 2022(06): 15-17+50 . 百度学术
67. 邹长宽,田小平,张晓燕,张雨晴,杜磊. 基于GraphSage节点度重要性聚合的网络节点分类研究. 科学技术与工程. 2022(32): 14306-14312 . 百度学术
68. 王宏朝,李魏琦,郭耀华,刘瀛,焦秀秀. 基于安全监测公共服务平台的企业供应链安全风险预控方法研究. 物流科技. 2022(20): 28-32 . 百度学术
其他类型引用(305)