• 中国精品科技期刊
  • CCF推荐A类中文期刊
  • 计算领域高质量科技期刊T1类
高级检索

HVMS:基于混合向量化的SpMV优化机制

颜志远, 解壁伟, 包云岗

颜志远, 解壁伟, 包云岗. HVMS:基于混合向量化的SpMV优化机制[J]. 计算机研究与发展, 2024, 61(12): 2969-2984. DOI: 10.7544/issn1000-1239.202330204
引用本文: 颜志远, 解壁伟, 包云岗. HVMS:基于混合向量化的SpMV优化机制[J]. 计算机研究与发展, 2024, 61(12): 2969-2984. DOI: 10.7544/issn1000-1239.202330204
Yan Zhiyuan, Xie Biwei, Bao Yungang. HVMS: A Hybrid Vectorization-Optimized Mechanism of SpMV[J]. Journal of Computer Research and Development, 2024, 61(12): 2969-2984. DOI: 10.7544/issn1000-1239.202330204
Citation: Yan Zhiyuan, Xie Biwei, Bao Yungang. HVMS: A Hybrid Vectorization-Optimized Mechanism of SpMV[J]. Journal of Computer Research and Development, 2024, 61(12): 2969-2984. DOI: 10.7544/issn1000-1239.202330204
颜志远, 解壁伟, 包云岗. HVMS:基于混合向量化的SpMV优化机制[J]. 计算机研究与发展, 2024, 61(12): 2969-2984. CSTR: 32373.14.issn1000-1239.202330204
引用本文: 颜志远, 解壁伟, 包云岗. HVMS:基于混合向量化的SpMV优化机制[J]. 计算机研究与发展, 2024, 61(12): 2969-2984. CSTR: 32373.14.issn1000-1239.202330204
Yan Zhiyuan, Xie Biwei, Bao Yungang. HVMS: A Hybrid Vectorization-Optimized Mechanism of SpMV[J]. Journal of Computer Research and Development, 2024, 61(12): 2969-2984. CSTR: 32373.14.issn1000-1239.202330204
Citation: Yan Zhiyuan, Xie Biwei, Bao Yungang. HVMS: A Hybrid Vectorization-Optimized Mechanism of SpMV[J]. Journal of Computer Research and Development, 2024, 61(12): 2969-2984. CSTR: 32373.14.issn1000-1239.202330204

HVMS:基于混合向量化的SpMV优化机制

基金项目: 国家重点研发计划项目((2022YFB4500403);国家自然科学基金项目 (62090022);中国科学院战略性先导科技专项(XDA0320300)
详细信息
    作者简介:

    颜志远: 1992 年生. 博士研究生. 主要研究方向为高性能计算、计算机体系结构

    解壁伟: 1987 年生. 博士,助理研究员. 主要研究方向为开源 EDA、开源芯片、高性能计算、计算机体系结构

    包云岗: 1980 年生. 博士,研究员. 主要研究方向为数据中心体系结构、处理器芯片敏捷设计方法论、开源处理器芯片生态

    通讯作者:

    包云岗(baoyg@ict.ac.cn

  • 中图分类号: TP391

HVMS: A Hybrid Vectorization-Optimized Mechanism of SpMV

Funds: This work was supported by the National Key Research and Development Program of China (2022YFB4500403),the National Natural Science Foundation of China (62090022),and the Strategic Priority Research Program of the Chinese Academy of Sciences (XDA0320300).
More Information
    Author Bio:

    Yan Zhiyuan: born in 1992. PhD candidate. Her main research interests include high performance computing and computer architecture

    Xie Biwei: born in 1987. PhD, assistant professor. His main research interests include open-source EDA, open-source chip, high performance computing, and computer architecture

    Bao Yungang: born in 1980. PhD, professor. His main research interests include data-center architecture, agile design methodology of processor chips, and ecosystem of open-source processor chips

  • 摘要:

    在科学计算和系统工程等领域,稀疏矩阵向量乘(sparse matrix-vector multiplication,SpMV)占据着极其重要的位置. 受限于矩阵稀疏性所导致的访存不规则性,向量优化一直是SpMV的难点. 针对此问题,进行深入分析并且总结影响SpMV向量化效率的主要因素. 除却稀疏矩阵内非零元分布的不规则,不同稀疏矩阵之间的非零元分布特征亦有明显不同,导致单一的向量优化策略难以适用于多种不同特征的稀疏矩阵. 另一方面,多样化向量硬件在向量特性和指令上的差异,影响了SpMV向量优化方法的通用性. 把不规则的稀疏矩阵映射到规则的向量硬件上进行计算,是SpMV向量化面临的最主要挑战. 基于此,提出一种基于混合向量化方法的SpMV优化机制(hybrid vectorization-optimized mechanism of SpMV,HVMS). HVMS首先对向量硬件的特性进行抽象建模,并基于抽象出的基本操作,设计相应的规则指导稀疏矩阵进行规则化转换. 按照不同的矩阵特征,HVMS将稀疏矩阵划分为不同的部分,弱化稀疏矩阵的不规则程度,并引入不同的优化策略最大化SpMV的向量化效率,从而提升性能. 基于Intel Xeon平台,在30个常用稀疏矩阵上对HVMS进行实验分析. 结果表明,相比现有代表性工作如CVR,SELL-C-σ,Intel MKL,HVMS分别获得1.60倍、1.72倍和1.93倍的平均加速比.

    Abstract:

    Sparse matrix-vector multiplication (SpMV) plays an important role in a wide variety of scientific and engineering applications.Executing SpMV efficiently on vector processors is challenging because of the irregular memory access of sparse matrices. We conduct a detailed analysis of the main factors that have impact on the efficiency of SpMV vectorization.In addition to the irregular distribution of non-zero elements within sparse matrices, different sparse matrices also exhibit huge variations in the distribution characteristics of non-zero elements. Therefore, it is difficult to apply a universal vector optimization method for matrices with diverse characteristics. Furthermore, there is a big difference in vector computing and vector instructions for various vector processors. The primary challenge of SpMV vectorization lies in mapping the irregular sparse matrices onto the regular vector processor. In this paper, we propose a hybrid vectorization-optimized mechanism of SpMV(HVMS). HVMS models the characteristics of vector processors and designs corresponding rules based on the abstracted basic operations to guide the regularization conversion of sparse matrices. HVMS divides the matrix into different parts according to the different characteristics. For each part, the non-zero distribution can be less irregular and then HVMS introduces corresponding optimization mechanisms to boost the vectorization efficiency of SpMV. We implement and evaluate HVMS on an Intel Xeon processor and compare it with three state-of-the-art approaches using 30 sparse matrices. Experimental results show that HVMS can achieve an average speedup of 1.60x, 1.72x, and 1.93x over CVR, SELL-C-σ, and Intel MKL, respectively.

  • 图  1   CSR格式示意图

    Figure  1.   Illustration of CSR format

    图  2   稀疏矩阵示例以及Intel MKL,CVR,SELL-C-σ在计算时的对应数据排布

    Figure  2.   A example of sparse matrix and the corresponding data layouts of Intel MKL, CVR and SELL-C-σ in the calculation

    图  3   Intel MKL,CVR,SELL-C-σ在4个数据集上的性能结果

    Figure  3.   Performance results of Intel MKL, CVR and SELL-C-σ on four datasets

    图  4   4个典型矩阵数据集的密度分布

    Figure  4.   Density distribution of four typical matrix datasets

    图  5   HVMS的设计思想

    Figure  5.   The design philosophy of HVMS

    图  6   4种向量计算基本操作

    Figure  6.   Four basic operations of vector computing

    图  7   稀疏矩阵的规则化转换

    Figure  7.   Regularization transformation of sparse matrix

    图  8   转换后的稀疏矩阵到基本向量计算操作的映射

    Figure  8.   Converted sparse matrix maps to the basic operations of vector computing

    图  9   HVMS的数据转换过程

    Figure  9.   Data conversion process of HVMS

    图  10   HVMS的SpMV实现

    Figure  10.   SpMV implementation of HVMS

    图  11   4种方案在2个平台上的实验性能对比

    Figure  11.   Experimental performance comparison of four schemes on two platforms

    图  12   更改迭代次数后4种方案相比于Intel MKL的平均加速比

    Figure  12.   Average speedups of four shemes compared with Intel MKL after the iteration numbers change

    图  13   4种方案在4种稀疏矩阵上的可扩展性对比

    Figure  13.   Scaling comparison of four schemes on four sparse matrices

    图  14   更改HVMS中规则的优先级对性能的影响

    Figure  14.   Effect of changing priorities of rules in HVMS on performace

    表  1   部分常用的向量指令

    Table  1   Some Common Vector Instructions

    指令操作 指令行为说明
    load(&addr) 将数据(例如双精度浮点类型的数据)从内存地址addr处加载到寄存器.
    fmadd_pd(Reg1, Reg2, Reg3) 执行向量乘加操作,即目标寄存器的值=Reg1×Reg2 + Reg3.
    gather(idx, &array) 使用idx寄存器提供的索引值从数组array中gather多个数据(例如8个double数据),并将其加载入寄存器中.
    scatter(&array, idx, Reg) 使用idx寄存器提供的索引值从Reg中scatter多个数据(例如8个double数据),并将其存储到内存数组array.
    reduction_add(Reg) 返回将寄存器Reg内所有值相加后的结果.
    mask_reduction_add(Mask, Reg) 利用给定的掩码值(Mask)将寄存器Reg内相应位置的值相加并返回.
    下载: 导出CSV

    表  2   实验平台的配置信息

    Table  2   Configuration Information of Experimental Platforms

    参数 Intel Xeon Intel Core
    处理器 Gold 6130 (Skylake) i9-10940X
    (Cascade Lake)
    处理器个数 2 1
    核心数 16 14
    每核线程数 2 2
    L1 cache大小/KB 32(I)+32 (D) 32 (I)+32 (D)
    L2 cache大小/MB 1 1
    L3 cache大小/MB 22 19
    内存大小/GB 126 62
    操作系统 Ubuntu18.04.5 Ubuntu18.04.3
    注:I表示指令缓存,D表示数据缓存.
    下载: 导出CSV

    表  3   评测数据集

    Table  3   Datasets Used for Evaluation

    数据集 维度 非零元个数 平均每行非零元个数
    cage15 5.1×106×5.1×106 99×106 19
    caidaRouterLevel 192×103×192×103 1.2×106 6
    c-big 345×103×345×103 2.3×106 6
    circuit5M 5.5×106×5.5×106 59×106 10
    citationCiteseer 268×103×268×103 2.3×106 8
    coAuthorsDBLP 299×103×299×103 1.9×106 6
    com-DBLP 317×103×317×103 2.0×106 6
    com-Orkut 3×106×3×106 234×106 76
    com-Youtube 1.1×106×1.1×106 5.9×106 5
    dblp-2010 326×103×326×103 1.6×106 4
    flickr 820×103×820×103 9.8×106 11
    wiki-topcats 1×106×1×106 28×106 15
    higgs-twitter 456×103×456×103 14×106 32
    in-2004 1×106×1×106 16×106 12
    language 399×103×399×103 1.2×106 3
    loc-Gowalla 196×103×196×103 1.9×106 9
    mip1 66×103×66×103 10×106 155
    mouse_gene 45×103×45×103 28×106 642
    NotreDame_actors 392×103×127×103 1.5×106 3
    nxp1 414×103×414×103 2.6×106 6
    preferential 100×103×100×103 1×106 9
    rail4284 4×103×1×106 11×106 2633
    road_central 14×106×14×106 33×106 2
    pwtk 217×103×217×103 11×106 52
    soc-Pokec 1.6×106×1.6×106 30×106 18
    soc-sign-epinions 131×103×131×103 0.8×106 6
    sx-superuser 194×103×194×103 0.9×106 4
    webbase-1M 1×106×1×106 3.1×106 3
    ldoor 952×103×952×103 42×106 44
    CurlCurl_2 806×103×806×103 8×106 11
    下载: 导出CSV

    表  4   3种方案平摊格式转换开销所需的SpMV迭代次数

    Table  4   SpMV Iterations that Need to Amortize the Format Conversion Overhead on Three Schemes

    数据集CVRSELL-C-σHVMS
    (本文)
    cage15
    caidaRouterLevel161.474.16
    c-big1.73105.803.29
    circuit5M2.663.56
    citationCiteseer172.7516.08
    coAuthorsDBLP88.114.01
    com-DBLP119.026.60
    com-Orkut474.727.35
    com-Youtube2.0696.674.09
    dblp-2010133.697.50
    flickr2.5321.634.09
    wiki-topcats369.2978.67
    higgs-twitter51.1771.1546.99
    in-200419.2856.19
    language8.143.73
    loc-Gowalla3.5011015.261.98
    mip132.85115.37
    mouse_gene60.95133.37
    NotreDame_actors89.134.62
    nxp128.12
    preferential1.22215.171.93
    rail428412.2524.19
    road_central28.39
    pwtk153.19186.86
    soc-Pokec84.2019.49
    soc-sign-epinions1.66137.772.38
    sx-superuser11.00193.272.95
    webbase-1M4.6198.826.49
    ldoor
    CurlCurl_2118.43
    注:加粗数字表示3种方案中的最少迭代次数,亦即最优方案.
    下载: 导出CSV
  • [1]

    Zilli G. Iterative methods for solving sparse linear systems with a parallel preconditioner[J]. International Journal of Computer Mathematics, 1992, 44(1/2/3/4): 111−119

    [2]

    Diaz J, Munoz-Caro C, Nino A. A survey of parallel programming models and tools in the multi and many-core era[J]. IEEE Transactions on Parallel and Distributed Systems, 2012, 23(8): 1369−1386 doi: 10.1109/TPDS.2011.308

    [3]

    Chrysos G. Intel® Xeon PhiTM coprocessor-the architecture[EB/OL]. 2014[2023-07-31]. http://gec.di.uminho.pt/minf/cpd1314/SCD/Intel_Xeon-PhiArch.pdf

    [4]

    Anderson C S, Zhang Jingwei, Cornea M. Enhanced vector math support on the Intel® avx-512 architecture[C]//Proc of the 25th Symp on Computer Arithmetic (ARITH). Piscataway, NJ: IEEE, 2018: 120−124

    [5]

    Reddy V G. NEON technology introduction[J]. ARM Corporation, 2008, 4(1): 1−33

    [6]

    Wang Endong, Zhang Qing, Shen Bo, et al. Intel math kernel library[EB/OL]. 2014[2023-06-13].https://link.springer.com/chapter/10.1007/978-3-319-06486-4_7

    [7]

    Liu Weifeng, Vinter B. CSR5: An efficient storage format for cross-platform sparse matrix-vector multiplication[C]//Proc of the 29th Int Conf on Supercomputing. New York: ACM, 2015: 339−350

    [8]

    Xie Biwei, Zhan Jianfeng, Liu Xu, et al. CVR: Efficient vectorization of SpMV on x86 processors[C]//Proc of the 16th Annual IEEE/ACM Int Symp on Code Generation and Optimization. New York: ACM, 2018: 149−162

    [9]

    Kreutzer M, Hager G, Wellein G, et al. A unified sparse matrix data format for efficient general sparse matrix-vector multiplication on modern processors with wide SIMD units[J]. SIAM Journal on Scientific Computing, 2014, 36(5): C401−C423 doi: 10.1137/130930352

    [10]

    Flynn M J. Some computer organizations and their effectiveness[J]. IEEE Transactions on Computers, 1972, 21(9): 948−960

    [11]

    Lomont C. Introduction to Intel advanced vector extensions[EB/OL]. 2011[2023-06-13].https://hpc.llnl.gov/sites/default/files/intelAVXintro.pdf

    [12]

    Oberman S, Favor G, Weber F. AMD 3DNow! Technology: Architecture and implementations[J]. IEEE Micro, 1999, 19(2): 37−48 doi: 10.1109/40.755466

    [13]

    Luebke D, Harris M, Govindaraju N, et al. GPGPU: General-purpose computation on graphics hardware[C/OL]//Proc of the 2006 ACM/IEEE Conf on Supercomputing. New York: ACM, 2006[2023-08-04].https://dl.acm.org/doi/10.1145/1188455.1188672

    [14]

    Davis T A, Hu Yifan. The University of Florida sparse matrix collection[J]. ACM Transactions on Mathematical Software, 2011, 38(1): 1−25

    [15]

    Li Chenyang, Xia Tian, Zhao Wenzhe, et al. SpV8: Pursuing optimal vectorization and regular computation pattern in SpMV[C]//Proc of the 58th ACM/IEEE Design Automation Conf (DAC). Piscataway, NJ: IEEE, 2021: 661−666

    [16]

    Bian Haodong, Huang Jianqiang, Liu Lingbin, et al. ALBUS: A method for efficiently processing SpMV using SIMD and load balancing[J]. Future Generation Computer Systems, 2021, 116: 371−392 doi: 10.1016/j.future.2020.10.036

    [17]

    Bian Haodong, Huang Jianqiang, Dong Runting, et al. CSR2: A new format for SIMD-accelerated SpMV[C]//Proc of the 20th IEEE/ACM Int Symp on Cluster, Cloud and Internet Computing (CCGRID). Piscataway, NJ: IEEE, 2020: 350−359

    [18]

    Tang Waiteng, Zhao Ruizhe, Lu Mian, et al. Optimizing and auto-tuning scale-free sparse matrix-vector multiplication on Intel Xeon Phi[C]//Proc of the 13th Annual IEEE/ACM Int Symp on Code Generation and Optimization. Piscataway, NJ: IEEE, 2015: 136−145

    [19]

    Eberhardt R, Hoemmen M. Optimization of block sparse matrix-vector multiplication on shared-memory parallel architectures[C]//Proc of the 2016 IEEE Int Parallel and Distributed Processing Symp Workshops (IPDPSW). Piscataway, NJ: IEEE, 2016: 663−672

    [20]

    Yan Shengen, Li Chao, Zhang Yunquan, et al. yaSpMV: Yet another SpMV framework on GPUS[J]. ACM SIGPLAN Notices, 2014, 49(8): 107−118 doi: 10.1145/2692916.2555255

    [21]

    Merrill D, Garland M. Merge-based parallel sparse matrix-vector multiplication[C]//Proc of the 2016 Int Conf for High Performance Computing, Networking, Storage and Analysis. Piscataway, NJ: IEEE, 2016: 678−689

    [22]

    Yesil S, Heidarshenas A, Morrison A, et al. Speeding up SpMV for power-law graph analytics by enhancing locality & vectorization[C/OL]//Proc of the 2020 Int Conf for High Performance Computing, Networking, Storage and Analysis. Piscataway, NJ: IEEE, 2020[2023-07-31].https://ieeexplore.ieee.org/document/9355205

    [23]

    Elafrou A, Goumas G, Koziris N. Conflict-free symmetric sparse matrix-vector multiplication on multicore architectures[C/OL]//Proc of the 2019 Int Conf for High Performance Computing, Networking, Storage and Analysis. New York: ACM, 2019[2023-07-31].https://dl.acm.org/doi/10.1145/3295500.3356148

    [24]

    Fei Xiang, Zhang Youhui. Regu2D: Accelerating vectorization of SpMV on Intel processors through 2D-partitioning and regular arrangement[C/OL]//Proc of the 50th Int Conf on Parallel Processing. New York: ACM, 2021[2023-07-31].https://dl.acm.org/doi/10.1145/3472456.3472479

    [25]

    Liu Changxi, Xie Biwei, Liu Xin, et al. Towards efficient SpMV on sunway manycore architectures[C]//Proc of the 2018 Int Conf on Supercomputing. New York: ACM, 2018: 363−373

    [26]

    Buono D, Petrini F, Checconi F, et al. Optimizing sparse matrix-vector multiplication for large-scale data analytics[C/OL]//Proc of the 2016 Int Conf on Supercomputing. New York: ACM, 2016[2023-07-31].https://dl.acm.org/doi/10.1145/2925426.2926278

    [27]

    Umuroglu Y, Jahre M. An energy efficient column-major backend for FPGA SpMV accelerators[C]//Proc of the 32nd Int Conf on Computer Design (ICCD). Piscataway, NJ: IEEE, 2014: 432−439

    [28]

    Liu Xing, Smelyanskiy M, Chow E, et al. Efficient sparse matrix-vector multiplication on x86-based many-core processors[C]//Proc of the 27th Int ACM Conf on Int Conf on Supercomputing. New York: ACM, 2013: 273−282

    [29]

    Li Kenli, Yang Wangdong, Li Keqin. Performance analysis and optimization for SpMV on GPU using probabilistic modeling[J]. IEEE Transactions on Parallel and Distributed Systems, 2014, 26(1): 196−205

    [30]

    Niu Yuyao, Lu Zhengyang, Dong Meichen, et al. TileSpMV: A tiled algorithm for sparse matrix-vector multiplication on GPUS[C]//Proc of the 2021 IEEE Int Parallel and Distributed Processing Symp (IPDPS). Piscataway, NJ: IEEE, 2021: 68−78

    [31]

    Greathouse J L, Daga M. Efficient sparse matrix-vector multiplication on GPUs using the CSR storage format[C]//Proc of the 2014 Int Conf for High Performance Computing, Networking, Storage and Analysis. Piscataway, NJ: IEEE, 2014: 769−780

    [32]

    Li Jiajia, Tan Guangming, Chen Mingyu, et al. SMAT: An input adaptive auto-tuner for sparse matrix-vector multiplication[C]//Proc of the 34th ACM SIGPLAN Conf on Programming Language Design and Implementation. New York: ACM, 2013: 117−126

    [33]

    Zhao Yue, Li Jiajia, Liao Chunhua, et al. Bridging the gap between deep learning and sparse matrix format selection[C]//Proc of the 23rd ACM SIGPLAN Symp on Principles and Practice of Parallel Programming. New York: ACM, 2018: 94−108

    [34]

    Feng Siying, Sun Jiawen, Pal S, et al. Cosparse: A software and hardware reconfigurable SpMV framework for graph analytics[C]//Proc of the 58th ACM/IEEE Design Automation Conf (DAC). Piscataway, NJ: IEEE, 2021: 949−954

    [35]

    Tang Waiteng, Zhao Ruizhe, Lu Mian, et al. Optimizing and auto-tuning scale-free sparse matrix-vector multiplication on Intel Xeon Phi[C]//Proc of the 13th Annual IEEE/ACM Int Symp on Code Generation and Optimization. New York: ACM, 2015: 136−145

    [36]

    Zhao Yue, Zhou Weijie, Shen Xipeng, et al. Overhead-conscious format selection for SpMV-based applications[C]//Proc of the 2018 IEEE Int Parallel and Distributed Processing Symp (IPDPS). Piscataway, NJ: IEEE, 2018: 950−959

    [37]

    Benatia A, Ji Weixing, Wang Yizhuo, et al. Sparse matrix format selection with multiclass svm for SpMV on GPU[C]//Proc of the 45th Int Conf on Parallel Processing (ICPP). Piscataway, NJ: IEEE, 2016: 496−505

    [38] 谢震,谭光明,孙凝晖. 基于PPR 模型的稀疏矩阵向量乘及卷积性能优化研究[J]. 计 算 机 研 究 与 发 展,2021,58(3):445−457

    Xie Zhen, Tan Guangming, Sun Ninghui. Research on optimal performance of sparse matrix-vector multiplication and convoulution using the probability-process-RAM model[J]. Journal of Computer Research and Development, 2021, 58(3): 445−457(in Chinese)

    [39]

    Choi J W, Singh A, Vuduc R W. Model-driven autotuning of sparse matrix-vector multiply on GPUS[J]. ACM SIGPLAN Notices, 2010, 45(5): 115−126 doi: 10.1145/1837853.1693471

    [40]

    Vuduc R, Demmel J W, Yelick K A. OSKI: A library of automatically tuned sparse matrix kernels[J]. Journal of Physics: Conference Series. 2005, 16(1): 521−530

  • 期刊类型引用(68)

    1. 陈泽明,方序鸿,李家叶,汪孟尧,陈爱芳,尹玲. 机器学习模型在城市内涝模拟预报中的应用综述. 人民珠江. 2025(01): 9-22 . 百度学术
    2. 邱凯乐. 图信号处理综述. 物联网技术. 2025(05): 111-113 . 百度学术
    3. 练培格,李英冰,刘波,冯晓珂. 基于多元时间序列动态图神经网络的交通速度预测. 地球信息科学学报. 2025(03): 636-652 . 百度学术
    4. 许明家,孙龙,李爽,鲁程鹏. 基于图神经网络的地下水位动态模拟模型. 水文. 2025(01): 30-36 . 百度学术
    5. 胡书林,张华军,邓小涛,王征华. 结合依存图卷积的中文文本相似度计算研究. 计算机工程. 2025(03): 76-85 . 百度学术
    6. 朱海,谭文安,郭凯. 基于图卷积的云制造服务编码算法. 河南科技大学学报(自然科学版). 2024(01): 43-50+7 . 百度学术
    7. 肖国庆,李雪琪,陈玥丹,唐卓,姜文君,李肯立. 大规模图神经网络研究综述. 计算机学报. 2024(01): 148-171 . 百度学术
    8. 林晶晶,冶忠林,赵海兴,李卓然. 超图神经网络综述. 计算机研究与发展. 2024(02): 362-384 . 本站查看
    9. 谢楠. 内容个性化推荐优化探索. 数字通信世界. 2024(01): 70-72 . 百度学术
    10. 柳德云,李莹,周震,吉根林. 基于时空依赖关系和特征融合的弱监督视频异常检测. 数据采集与处理. 2024(01): 204-214 . 百度学术
    11. 李挺,金福生,李荣华,王国仁,段焕中,路彦雄. Light-HGNN:用于圈层内容推荐的轻量同质超图神经网络. 计算机研究与发展. 2024(04): 877-888 . 本站查看
    12. 杨洁祎 ,董一鸿 ,钱江波 . 基于图神经网络的小样本学习方法研究进展. 计算机研究与发展. 2024(04): 856-876 . 本站查看
    13. 胡昊,孙爽,马鑫,李擎,徐鹏. 基于图注意力网络的城市内涝积水预测与研究. 人民黄河. 2024(04): 43-48 . 百度学术
    14. 龙志,陈湘州. 基于图注意力LSTM深度学习的季度GDP预测应用. 湖南工程学院学报(社会科学版). 2024(01): 54-64+118 . 百度学术
    15. 张陶,廖彬,于炯,李敏,孙瑞娜. 图神经网络节点分类任务基准测试及分析. 计算机科学. 2024(04): 132-150 . 百度学术
    16. 刘润雨,贾路楠. 基于分班图神经网络的度不平衡节点分类. 信息技术与信息化. 2024(04): 114-117 . 百度学术
    17. 袁立宁,蒋萍,莫嘉颖,刘钊. 基于二阶图卷积自编码器的图表示学习. 计算机工程与应用. 2024(10): 180-187 . 百度学术
    18. 侯磊,刘金环,于旭,杜军威. 图神经网络研究综述. 计算机科学. 2024(06): 282-298 . 百度学术
    19. 楚小茜,张建辉,张德升,苏珲. 基于改进GraphSAGE算法的浏览器指纹追踪. 计算机科学. 2024(06): 409-415 . 百度学术
    20. 刘振威,黄影平,梁振明,杨静怡. 基于点云图卷积神经网络的3D目标检测. 上海理工大学学报. 2024(03): 320-330 . 百度学术
    21. 张强,彭骨,薛陈斌. 基于改进图注意力网络的油井产量预测模型. 吉林大学学报(理学版). 2024(04): 933-942 . 百度学术
    22. 李平,宋舒寒,张园,曹华伟,叶笑春,唐志敏. HSEGRL:一种分层可自解释的图表示学习模型. 计算机研究与发展. 2024(08): 1993-2007 . 本站查看
    23. 焦鹏飞,陈舒欣,郭翾,何东晓,刘栋. 图神经常微分方程综述. 计算机研究与发展. 2024(08): 2045-2066 . 本站查看
    24. 王长刚,王先伟,曹宇,李扬,吕琪,张耀心. 基于改进图注意力网络的电力系统脆弱性关键环节辨识. 电力系统保护与控制. 2024(15): 36-45 . 百度学术
    25. 李航程,钟勇. 基于多特征驱动图注意卷积网络的关系抽取. 计算机应用. 2024(S1): 24-28 . 百度学术
    26. 熊辛,涂志炜,唐韬,闵仕琦,冯雨欣,汤涛,叶海涛. 复杂场景下人体跌倒行为监测模型构建的研究. 中国数字医学. 2024(09): 91-96 . 百度学术
    27. 李鑫,陆伟,马召祎,朱攀,康彬. 基于图注意力和改进Transformer的节点分类方法. 电子学报. 2024(08): 2799-2810 . 百度学术
    28. 冯拓宇,刘佳宁,曹子奇,郭静,杨云祥. 社区发现方法研究综述. 中国电子科学研究院学报. 2024(06): 487-498+503 . 百度学术
    29. 贺鸣,郭熹,秦守浩,张珂珂. 一种图智能应用开发平台及电信运营商应用实践. 邮电设计技术. 2024(10): 73-77 . 百度学术
    30. 李鹏辉,翟正利,冯舒. 针对图神经网络的单节点扰动攻击. 计算机与数字工程. 2024(10): 3003-3008 . 百度学术
    31. 孙秀娟,孙福振,李鹏程,王澳飞,王绍卿. 融合掩码自编码器的自适应增强序列推荐. 计算机科学与探索. 2024(12): 3324-3334 . 百度学术
    32. 庞俊,程俊澳,林晓丽,王蒙湘. 基于动态超图小波神经网络的半监督超图节点分类. 计算机应用研究. 2024(12): 3735-3741 . 百度学术
    33. 周宇,肖健梅,王锡淮. 基于GCN和HGP-SL的电力系统暂态稳定评估. 电气工程学报. 2024(04): 246-254 . 百度学术
    34. 张蕾,钱峰,赵姝,陈洁,杨雪洁,张燕平. 基于卷积图神经网络的多粒度表示学习框架. 南京大学学报(自然科学). 2023(01): 43-54 . 百度学术
    35. 李洁莹,马佳瑛. 英语翻译机器人翻译错误自动检测系统研究. 自动化与仪器仪表. 2023(02): 242-246 . 百度学术
    36. 蒋玉英,陈心雨,李广明,王飞,葛宏义. 图神经网络及其在图像处理领域的研究进展. 计算机工程与应用. 2023(07): 15-30 . 百度学术
    37. 陈东洋,郭进利. 基于图注意力的高阶网络节点分类方法. 计算机应用研究. 2023(04): 1095-1100+1136 . 百度学术
    38. 韩冰,张鑫云,任爽. 基于三维点云的卷积运算综述. 计算机研究与发展. 2023(04): 873-902 . 本站查看
    39. 马东岭,吴鼎辉,陈家阁,姚国标,毛力波. 基于增强图注意力网络的高光谱影像分类方法. 山东建筑大学学报. 2023(02): 97-104 . 百度学术
    40. 尹拓凯,岳文静,陈志. 面向拜占庭攻击的认知用户分类. 计算机技术与发展. 2023(04): 102-107 . 百度学术
    41. 安波. 结构信息增强的文献分类方法研究. 农业图书情报学报. 2023(03): 15-24 . 百度学术
    42. 代祖华,刘园园,狄世龙. 语义增强的图神经网络方面级文本情感分析. 计算机工程. 2023(06): 71-80 . 百度学术
    43. 袁满,褚润夫,袁靖舒,陈萍. 融合上下文信息的图神经网络推荐模型研究. 吉林大学学报(信息科学版). 2023(04): 693-700 . 百度学术
    44. 刘佰阳,郑宇,魏琳,刘梅,金龙. 面向模型未知的冗余机器人运动规划方案. 兰州大学学报(自然科学版). 2023(04): 506-511 . 百度学术
    45. 梁龙跃,王浩竹. 基于图卷积神经网络的个人信用风险预测. 计算机工程与应用. 2023(17): 275-285 . 百度学术
    46. 陈淑娴. 基于知识图谱与图神经网络下无线业务预测手段优化. 软件. 2023(07): 83-85 . 百度学术
    47. 马华,姜伟,陈明,钟世杰. 基于图滤波器的符号属性图链路关系预测算法. 计算机技术与发展. 2023(09): 126-132 . 百度学术
    48. 柳博文,刘星. 多尺度卷积神经网络模型优化在矿物识别中的应用. 矿物岩石. 2023(03): 10-19 . 百度学术
    49. 田春生,陈雷,王源,王硕,周婧,王卓立,庞永江,杜忠. 基于图神经网络的电子设计自动化技术研究进展. 电子与信息学报. 2023(09): 3069-3082 . 百度学术
    50. 张华辉,邱晓莹,徐航. 文本情感分类方法研究综述. 延边大学学报(自然科学版). 2023(03): 275-282 . 百度学术
    51. 谷振宇,陈聪,郑家佳,孙棣华. 考虑时空相似性的动态图卷积神经网络交通流预测. 控制与决策. 2023(12): 3399-3408 . 百度学术
    52. 王松,骆莹,刘新民. 基于文本语义与关联网络双链路融合的用户生成内容价值早期识别研究. 数据分析与知识发现. 2023(11): 101-113 . 百度学术
    53. 曹汉童,陈璟. 融合Doc2vec与GCN的多类型蛋白质相互作用预测方法. 智能系统学报. 2023(06): 1165-1172 . 百度学术
    54. 丁红发,傅培旺,彭长根,龙士工,吴宁博. 混洗差分隐私保护的度分布直方图发布算法. 西安电子科技大学学报. 2023(06): 219-236 . 百度学术
    55. 马汉达,梁文德. 基于左归一化图卷积网络的推荐模型. 计算机应用. 2023(S2): 111-116 . 百度学术
    56. 闫明路,连航宇,朱丹青,程平. 图计算在反洗钱领域的应用. 金融会计. 2023(10): 65-72 . 百度学术
    57. 刘俊奇. 联合编码属性图聚类算法研究. 信息记录材料. 2022(04): 176-178 . 百度学术
    58. 熊晗. 图神经网络的开发与应用研究. 电视技术. 2022(04): 142-145 . 百度学术
    59. 杜雨晅,王巍,张闯,郑小丽,苏嘉涛,王杨洋. 基于自适应图卷积注意力神经协同推荐算法. 计算机应用研究. 2022(06): 1760-1766 . 百度学术
    60. 任嘉睿,张海燕,朱梦涵,马波. 基于元图卷积的异质网络嵌入学习算法. 计算机研究与发展. 2022(08): 1683-1693 . 本站查看
    61. 徐上上,孙福振,王绍卿,董家玮,吴田慧. 基于图神经网络的异构信任推荐算法. 计算机工程. 2022(09): 89-95+104 . 百度学术
    62. 张博,宋淑彩,赵一航. 基于GCN的节点分类研究. 河北建筑工程学院学报. 2022(02): 196-200 . 百度学术
    63. 卢锦玲,周阳,颜禄涵,张艺萱. 基于残差时空图神经网络的电力系统暂态稳定评估. 电力科学与工程. 2022(09): 54-64 . 百度学术
    64. 罗袆沅,蒋亚楠,许强,廖露,燕翱翔,刘陈伟. 基于深度学习的滑坡位移时空预测. 测绘学报. 2022(10): 2160-2170 . 百度学术
    65. 邢小雷,赵超,郑江文,温可欣. 图神经网络预训练综述. 小型微型计算机系统. 2022(12): 2487-2498 . 百度学术
    66. 闫如雪,余泽霖,刘泽宇. 基于高效层级学习图卷积网络的高光谱图像分类. 电脑与信息技术. 2022(06): 15-17+50 . 百度学术
    67. 邹长宽,田小平,张晓燕,张雨晴,杜磊. 基于GraphSage节点度重要性聚合的网络节点分类研究. 科学技术与工程. 2022(32): 14306-14312 . 百度学术
    68. 王宏朝,李魏琦,郭耀华,刘瀛,焦秀秀. 基于安全监测公共服务平台的企业供应链安全风险预控方法研究. 物流科技. 2022(20): 28-32 . 百度学术

    其他类型引用(305)

图(14)  /  表(4)
计量
  • 文章访问数:  269
  • HTML全文浏览量:  58
  • PDF下载量:  128
  • 被引次数: 373
出版历程
  • 收稿日期:  2023-03-30
  • 修回日期:  2023-08-13
  • 网络出版日期:  2024-03-13
  • 刊出日期:  2024-11-30

目录

    /

    返回文章
    返回