Processing math: 0%
  • 中国精品科技期刊
  • CCF推荐A类中文期刊
  • 计算领域高质量科技期刊T1类
高级检索

基于规则提示的知识图谱通用推理预训练模型

崔员宁, 孙泽群, 胡伟

崔员宁, 孙泽群, 胡伟. 基于规则提示的知识图谱通用推理预训练模型[J]. 计算机研究与发展, 2024, 61(8): 2030-2044. DOI: 10.7544/issn1000-1239.202440133
引用本文: 崔员宁, 孙泽群, 胡伟. 基于规则提示的知识图谱通用推理预训练模型[J]. 计算机研究与发展, 2024, 61(8): 2030-2044. DOI: 10.7544/issn1000-1239.202440133
Cui Yuanning, Sun Zequn, Hu Wei. A Pre-trained Universal Knowledge Graph Reasoning Model Based on Rule Prompts[J]. Journal of Computer Research and Development, 2024, 61(8): 2030-2044. DOI: 10.7544/issn1000-1239.202440133
Citation: Cui Yuanning, Sun Zequn, Hu Wei. A Pre-trained Universal Knowledge Graph Reasoning Model Based on Rule Prompts[J]. Journal of Computer Research and Development, 2024, 61(8): 2030-2044. DOI: 10.7544/issn1000-1239.202440133
崔员宁, 孙泽群, 胡伟. 基于规则提示的知识图谱通用推理预训练模型[J]. 计算机研究与发展, 2024, 61(8): 2030-2044. CSTR: 32373.14.issn1000-1239.202440133
引用本文: 崔员宁, 孙泽群, 胡伟. 基于规则提示的知识图谱通用推理预训练模型[J]. 计算机研究与发展, 2024, 61(8): 2030-2044. CSTR: 32373.14.issn1000-1239.202440133
Cui Yuanning, Sun Zequn, Hu Wei. A Pre-trained Universal Knowledge Graph Reasoning Model Based on Rule Prompts[J]. Journal of Computer Research and Development, 2024, 61(8): 2030-2044. CSTR: 32373.14.issn1000-1239.202440133
Citation: Cui Yuanning, Sun Zequn, Hu Wei. A Pre-trained Universal Knowledge Graph Reasoning Model Based on Rule Prompts[J]. Journal of Computer Research and Development, 2024, 61(8): 2030-2044. CSTR: 32373.14.issn1000-1239.202440133

基于规则提示的知识图谱通用推理预训练模型

基金项目: 国家自然科学基金项目(62272219)
详细信息
    作者简介:

    崔员宁: 1996年生. 博士研究生. 主要研究方向为知识图谱、表示学习、图机器学习

    孙泽群: 1992年生. 博士,毓秀青年学者. CCF会员. 主要研究方向为知识图谱、表示学习、实体对齐

    胡伟: 1982年生,博士,教授,博士生导师. CCF高级会员. 主要研究方向为知识图谱、数据库、智能软件

    通讯作者:

    胡伟(whu@nju.edu.cn

  • 中图分类号: TP391

A Pre-trained Universal Knowledge Graph Reasoning Model Based on Rule Prompts

Funds: This work was supported by the National Natural Science Foundation of China (62272219).
More Information
    Author Bio:

    Cui Yuanning: born in 1996. PhD candidate. His main research interests include knowledge graph, representation learning, and graph machine learning

    Sun Zequn: born in 1992. PhD, Yuxiu Young Scholar. Member of CCF. His main research interests include knowledge graph, representation learning, and entity alignment

    Hu Wei: born in 1982. PhD, professor, PhD supervisor. Senior member of CCF. His main research interests include knowledge graph, database, and intelligent software

  • 摘要:

    知识图谱是存储真实世界海量知识的图数据库,为大量知识驱动的下游任务提供了数据支持. 知识图谱往往具有不完备性,存在大量缺失的事实,因此知识图谱推理任务基于已知事实推理新结论来补全知识图谱. 随着知识工程及其商业应用的研究与发展,大量通用和领域知识图谱被构建. 现有知识图谱推理方法大多面向单一知识图谱的补全,不具备通用推理能力. 近年来,受预训练大语言模型通用能力的启发,一些通用的知识图谱推理预训练模型被提出. 针对现有预训练模型无法识别高质量推理模式的问题,提出一个基于规则提示的知识图谱通用推理预训练模型——RulePreM,该模型筛选与利用高质量推理规则来提高知识图谱上的推理能力. 首先基于推理规则构建关系IO图和一个编码器RuleGNN对关系进行编码,然后将关系编码作为提示来编码知识图谱中的实体,最后对候选实体进行打分预测. 还提出一种结合规则置信度的注意力机制,来进一步减少低质量推理模式的影响. 实验结果表明,所提出的模型在43个不同设定下的知识图谱上具有良好的通用推理能力,平均性能指标均优于现有的有监督模型和预训练模型.

    Abstract:

    A knowledge graph (KG) is a structured knowledge base that stores a massive amount of real-world knowledge, providing data support for numerous knowledge-driven downstream tasks. KGs often suffer from incompleteness, with many missing facts. Therefore, the KG reasoning task aims to infer new conclusions based on known facts to complete the KG. With the research and development of knowledge engineering and its commercial applications, numerous general and domain-specific KGs have been constructed. Existing KG reasoning models mostly focus on completing a single KG but lack general reasoning capabilities. Inspired by the general capabilities of pre-trained large language models in recent years, some pre-trained universal KG reasoning models have been proposed. Addressing the issue of existing pre-trained model being unable to identify high-quality reasoning patterns, we introduce a rule-based pre-trained universal KG reasoning model called RulePreM. It discovers and filters high-quality reasoning rules to enhance the reasoning abilities. The proposed model first constructs a relational IO graph based on reasoning rules and uses an encoder, RuleGNN, to encode the relations. The encoded relations are then used as prompts to encode entities in the KG. Finally, candidate entities are scored for prediction. Additionally, an attention mechanism that combines rule confidence is introduced to further reduce the impact of low-quality reasoning patterns. Experimental results demonstrate that the proposed model exhibits universal reasoning abilities on 43 different KGs, with average performance surpassing existing supervised and pre-trained models.

  • 集成电路(integrated circuit,IC)的制造工艺随着摩尔定律发展至今,以硅为基础的半导体技术发展正面临挑战[1]. 随着IC产业进入后摩尔时代[2],芯片的晶体管集成规模增长速度放缓,传统的通过缩小CMOS集成电路尺寸实现芯片性能提升的方法亟需革新. 芯粒(Chiplet)技术被半导体产业视为一种可以延续摩尔定律的解决方案[3],在单片晶体管数量受限的情况下,Chiplet架构能够通过先进封装技术集成多个“小芯片”(即Chiplet),以支撑芯片整体晶体管数量继续提升. 国外的芯片设计厂商Intel[4-5],AMD[6-8]等都在积极布局,而目前国内仍受限于先进工艺制造能力,因此芯粒技术路线的探索具有现实意义和迫切需求.

    基于Chiplet架构的芯片其各个Chiplet通常只实现完整芯片的部分功能,尺寸相比于传统的单片片上系统(system on chip,SoC)更小,因而较小的面积使其在制造时具有更高的良率. 作为完整芯片的组成部分,Chiplet可以被视为硬件“IP”,能够在不同芯片中实现复用,从而降低芯片定制化的设计门槛和制造成本,缩短芯片开发时间. Chiplet架构在异构集成方面也具有天然优势,基于先进的集成封装技术,可以更好地应对物联网(Internet of things,IoT)、人工智能(artificial intelligence,AI)、5G和大数据[9-12]等新兴领域以及复杂应用场景对芯片的带宽、延时、算力以及功耗等指标的多样化、定制化需求.

    相比于SoC,基于Chiplet集成的系统具有更丰富的设计多样性,与此同时Chiplet的划分、布局以及互连等方面的问题也使得设计空间探索(design space exploration,DSE)更为复杂. 在传统的通用处理器设计流程中,通常以规范化的指标如能量延迟积(energy-delay product,EDP)、能量延迟面积积(energy-delay-area product,EDAP)等作为优化目标,使用合理的DSE算法搜索最优的微架构参数配置. Chiplet架构的DSE问题由于面临着更多维度的综合考量,需要在性能、功耗、面积(performance power area, PPA)与成本等评估指标上进行综合权衡.

    在芯片架构设计早期,设计者通常会采用体系结构模拟器进行设计空间探索,对目标设计进行建模与仿真,快速获取相关评估指标以支持进一步量化分析. 现有开源的体系结构模拟器(Gem5[13],GPGPU[14],Sniper[15]等)在面向Chiplet架构模拟时存在诸多不足,例如缺少完整的Chiplet体系架构建模以及模拟过程缓慢等问题. 由于Chiplet架构引入了新的设计模块和设计参数,如D2D(die-to-die)接口和互连延迟等因素,需要在建模和评估时考虑更多的设计细节. 此外设计空间探索是一个反复迭代的过程,包括设计、模拟、评估在内的完整流程,通常软件模拟器的模拟频率只能达到kHz级别[16],在模拟环节的耗时极大制约了设计空间探索的效率.

    针对以上问题,本文面向Chiplet设计空间探索,建立了一个快速的自动化设计、模拟和评估框架——FireLink,以应对Chiplet技术迅速发展所带来的芯片架构和技术变化. 旨在帮助相关领域研究者快速验证和评估Chiplet架构设计策略,更好地探索Chiplet架构的潜力和瓶颈.

    本文的主要贡献包括3个方面:

    1)搭建了一个面向Chiplet架构进行敏捷设计、快速模拟和全面评估的综合框架FireLink,该框架通过自建脚本实现多种开源工具间输入输出适配,提供了从输入设计参数、生成寄存器传输级(register transfer level,RTL)硬件描述、软件模拟、硬件实现到设计评估输出的自动化工作流程;

    2)构建了面向Chiplet架构的设计模型和一个全面的综合评估指标PPAC(performance power area cost),反映性能、功耗、面积、成本,实现了Chiplet架构设计的多层次模拟和全面评估;

    3)基于机器学习中的决策树算法提出一种对历史设计参数建模、预测并生成符合规则的设计参数的方法,以此裁剪设计空间规模,提升设计空间探索的效率.

    传统的SoC难以满足人工智能、高性能计算和数据中心等应用领域不断增长的高算力需求[17],基于Chiplet集成的芯片设计方法凭借其更高的性价比获得越来越多的关注. 但是基于传统的EDP,EDAP,PPA等指标的评估方法难以体现Chiplet架构的单位算力成本优势,因此亟需一种能够准确评估Chiplet综合“价值”的指标,进而凭借其更好地指导前期设计优化.

    目前面向Chiplet架构评估的相关研究普遍聚焦于单一的评估指标,缺乏完整的框架,难以综合分析设计、性能和成本之间的相互关系. Chiplet Actuary[18]提出了一个定量的成本模型,以帮助设计者在Chiplet设计初期粗略评估成本. 而Ahmad等人[19]在面向Chiplet异构集成的成本和良率分析中展示了更多细节,包括材料类型、测试方法、操作流程等,从而确定基于SoC分解的Chiplet实现的可行性. 虽然文献[20]对2.5维的集成电路设计进行PPA、信号完整性(signal integrity,SI)和电源完整性(power integrity,PI)的分析,但是缺少对成本的量化评估. 这些工作侧重于Chiplet架构设计过程中的某一个阶段,缺乏一个全面的评估框架来同时考虑性能、功耗、面积和成本等多个维度.

    目前面向Chiplet架构的建模和模拟技术研究正在广泛开展,一些研究团队利用商业EDA工具建立逻辑设计与物理实现的协同设计和仿真框架. 例如Kim等人[20]面向异构2.5维设计开发了一个高度集成的设计仿真流程,Kabir等人[21]提出了类似的前后端协同的处理器设计方法. 这一类型的工作依赖于商业的EDA工具和数据集,导致了其有限的适用范围. 虽然商业EDA工具和工艺库能够提供详细的芯片信息(功耗、面积、寄生效应、可靠性等),但是由于这些工具和数据致力于商业用途,存在许可证获取困难、使用规范严格、学习成本高等限制,使得其用于学术研究的效果并不理想. 此外,后端设计需要大量的计算资源和时间投入,设计参数的任何微小修改都需要完成长链路耗时的串行流程. 这种高昂的时间花费和成本开销限制了专业EDA工具在芯片早期开发设计中的进一步推广和应用. 因此本文的研究选择基于开源项目进行拓展,并且对Chiplet架构模拟过程进行了加速,减少后端物理实现流程对设计空间探索的影响.

    体系结构模拟器通过对目标架构建模、模拟和量化分析来指导设计,能够缩短芯片设计时间、降低开发成本[22],这些优势使其在芯片早期开发时具有突出地位. 周俊成[23]通过将RTL软件模拟器Sniper与Booksim 片上网络(network-on-chip, NoC)模拟器结合来对Chiplet架构设计进行联合模拟. Zhi等人[24]提出了一种使用开源模拟器为多Chiplet集成系统构建模拟器的通用方法,能够支持对大规模系统的并行模拟,实现了Chiplet间和Chiplet内互连的精确建模,并开发了针对Chiplet集成系统的分布式和共享内存模型. 虽然软件模拟器在研究中被广泛应用,但是对于复杂设计问题而言,其kHz级别的模拟运行速度严重影响了设计空间探索的效率,尤其需要对模拟过程进行监控和提取关键信息时,其速度会变得更加缓慢.

    软件的模拟速度难以满足Chiplet设计空间探索的需求,尤其对于在设计初期需要对目标设计快速进行迭代优化的情况下,模拟的速度是设计者必须考虑的关键问题. 基于FPGA加速的模拟方法能够以更高的频率运行模拟系统,但需要编写相应的寄存器传输级硬件设计代码且对设计修改困难. 本文所做的工作很好地权衡了模拟速度与设计空间探索效率之间的关系,基于Chisel[25]敏捷设计语言的设计框架能够快速实现Chiplet微架构和互连网络结构集成,然后自动生成相应的寄存器传输级硬件描述并通过FPGA加速模拟过程.

    Chiplet架构相较于SoC的设计空间更为复杂、模拟难度更大,因此研究者们在面向Chiplet架构的设计空间探索的工作各有侧重. 例如只关注于Chiplet架构下基于中介层的先进封装技术对片上网络设计[26-29]的影响,或是2.5维集成设计的物理特性(热效应、电气性能、应力等)仿真[30-32]. Pal等人[33]开发了基于Chiplet组装的处理器设计空间探索框架,目标是确定最优的Chiplet组合. 此前提到的Kim等人[20]的研究领域只专注于2.5维集成封装的芯片设计空间探索,通过完全自动化的架构、电路和封装全阶段EDA流程,分析并权衡基于中介层的Chiplet集成方案. 这些工作聚焦于先进封装,强调2.5维或3维集成电路设计的量化分析,但是建模缺乏对Chiplet微架构细节的考量.

    还有一些研究者以某一特定应用领域为方向探索Chiplet架构的设计空间,例如Puzzle[34]面向深度学习领域,Chopin[35]关注于成本效益, Lan等人[36]的研究工作以神经形态处理器为目标. 相比于这些研究者,更专精于某一特定目标进行基于Chiplet的设计空间探索研究,本文提出的面向Chiplet设计空间探索的评估框架是更基础性的、广泛适用的,能够对基于Chiplet集成的芯片设计方案的可行性进行全方位的分析和评估.

    本节将介绍FireLink的整体框架,以及框架集成的各个开源工具发挥的作用,并描述如何面向Chiplet架构进行设计、模拟和评估. 为便于阐述,明确3个术语在本文中的具体含义:

    1)Chiplet. 完整功能的芯片可以按照一定规则划分为多种类型的模块,然后由单个或多个模块集成的,具有特定功能的Die.

    2)Die.由晶圆切割的未经封装的物理器件.

    3)模块. 具有某种特定功能的集成电路.

    图1展示了FireLink的框架示意图,相关的工具及其功能如表1所示. FireLink基于开源平台Chipyard[43]进行拓展,Chipyard是一个基于Chisel的硬件设计平台. 框架集成了多种开源工具和不同种类的面向RISC-V 系统的RTL生成器,能够支持异构多核芯片开发的硬件设计、模拟和实现全流程. 这些部件间具有良好的互操作性,但是由于版本兼容性以及严格的输入限制问题,它们之间的互联并非天然适配,需要对传输信息进行专门处理. 例如Verilator并不支持 “finish()”和“fatal()”等不可综合的语句以及逻辑信号“X”的编译,Yosys[44]综合前也需要对代码进行语法检查. 通过创建一系列的脚本解决了这些问题,包括执行错误处理、输出数据采集和提取关键参数,整个流程能够自动化执行.

    图  1  FireLink框架示意图
    Figure  1.  Illustration of FireLink framework
    表  1  Chipyard支持工具的功能
    Table  1.  Functions of the Tools Supported by Chipyard
    工具 功能 目标
    Rocket Chip[37] RISC-V SoC生成器 处理器微架构
    Constellation[38] NoC 生成器 互连网络
    Verilator[39] 软件模拟器 软件模拟器
    RISC-V Tools[40] 系统开发工具链 可执行测试程序
    FireSim[41] 硬件模拟框架 硬件加速模拟
    FireMarshal[42] 工作负载生成器 自定义工作负载
    下载: 导出CSV 
    | 显示表格

    Chiplet的微架构设计依托于Rocket Chip生成器实现建模,它是一个基于Chisel语言的参数化的硬件生成器. 通过Chisel包装的大量开源IP语料库,能够快速地构建一个RISC-V系统所需的所有功能单元. 与此同时,Constellation作为一个多核互连网络的生成器已经被集成到FireLink框架中,为基于Chipyard构建的硬件设计建立互连网络. 该互连结构具有良好的灵活性和可配置性,能够支持任意有向图网络拓扑,通过物理结构、数据流方向和路由设置3个层次设计互连网络的方法极大简化了Chiplet之间的通信建立过程. 于是FireLink在构建分层的拓扑结构的基础上,可以实现精确的Chiplet内与Chiplet间的互连网络建模.

    多核系统由于共享缓存的存在,为保证缓存一致性带来的死锁问题是体系结构设计的难题. 虚拟网络是解决死锁的一种有效方法,网络能够通过虚拟通道传输不同类型的报文,但是设计额外的虚拟通道会产生高功耗和大面积,尤其在核数目较多的体系结构下这种负面的影响尤为突出[45]. 在FireLink框架下支持配置虚拟通道的互连网络设计,能够确保网络是无死锁的,这有利于快速构建网络而无须考虑复杂的流关系.

    为了兼顾准确性和模拟速度,FireLink框架重新设计了建模与模拟过程,对原有固定的标准模拟流程与功能部件解耦,并把模拟区分为基于软件的模拟和基于FPGA加速的模拟. 在进行软件模拟时,编译器Verilator根据预先的设计架构描述(Scala)将生成的SystemVerilog编译为可执行的模拟器代码,通过运行RISC-V Tools提供的基准测试程序集进行模拟.

    FireSim是一个通过FPGA加速模拟过程的硬件模拟平台,支持基于Chipyad平台建立的目标架构模型,能够对其进行周期精确的全系统模拟. FireSim对目标设计模型的寄存器传输级硬件描述进行综合并生成门级网表,综合后的网表映射到FPGA内部资源实现具体的电路,然后设计文件转换为比特流并被下载部署在本地FPGA上,由其进一步执行加速模拟. FireMarshal是面向RISC-V系统的工作负载生成工具,支持在FireSim流程中生成自定义程序负载,保证了测试程序的可拓展性. 工作负载由一系列“作业”组成,每个“作业”能够对应分配到目标系统中的多个逻辑节点上并行处理.

    FireLink框架能够对Chiplet架构设计的关键指标进行量化评估,包括性能、面积、功耗和成本. 在模拟过程结束时能够从模拟的运行时间、周期数和频率等信息中量化性能. 对面积指标的推算,凭借引入开源的Verilog综合和验证工具Yosys,对输入的RTL进行综合,生成目标设计架构的网表信息,以此来估算各模块的面积大小. FireSim通过对设计网表的电路实现,提供了功耗报告,这将作为芯片设计功耗量化指标的参考值. 为全面评估Chiplet架构设计在性能、功耗、面积与成本上的综合“价值”,框架引入了成本模型并提出了PPAC评估指标,相关原理和可行性将在2.3节中详细介绍.

    面向Chiplet架构设计空间探索领域,提出的框架FireLink相比于其他DSE工具和研究工作的优势在于建模的完整性和更快的模拟速度,关键指标对比如表2所示. 由于模拟目标、工作负载和系统配置等差异,模拟速度与精度难以进行横向比较,虽缺乏直接可比性,但是FireLink框架能够支持FPGA加速,这项功能确保了在对同等规模目标设计进行模拟时能够更高效.

    表  2  DSE工具和研究工作对比
    Table  2.  Comparison of DSE Tools and Research Work
    工具/方法 NoC 速度 评估指标 评估精度
    Gem5 很慢 性能
    GPGPU 很慢 性能
    HGBO-DSE[46] PPA
    BOOM-Explorer[47] 性能、功耗
    ScaleHLS[48] 很快 性能
    AutoDSE[49] 性能
    SoC-Tuner[50] PPA
    SODA[51] 很慢 PPA
    MOOS[52] 很慢 性能、功耗
    FireLink(本文) PPAC
    下载: 导出CSV 
    | 显示表格

    本文提出的框架支持了更多的建模细节,包括功能部件、微架构、互连网络以及Chiplet层次的系统架构设计. FireLink有效解决了传统的软件模拟速度慢导致的设计空间探索效率不高的问题,加速模拟的机理是基于Chisel直接生成寄存器传输级的硬件描述的过程,在框架下生成的是目标设计架构的模拟器而不是一个硬件原型,对于每一个目标设计的时钟都将由动态可变的多个FPGA时钟来进行模拟[41]. 另一方面,FireLink提出了对性能、功耗、面积和成本进行全面评估的指标PPAC,实现了对这些参数的自动化提取和准确量化,这为快速迭代和验证架构设计提供了有力的支持.

    完整的SoC系统由一系列不可分割的基础模块构建,从SoC分解到Chiplet的过程认为这些基础模块是不会更改的(D2D额外考虑). 这些模块相互组合或独立制造,为单个Die构成了不同的 chip ,即Chiplet,再通过Chiplet互连集成组成Chiplet架构系统,这一过程与Chiplet的分区划分方式密切相关. 以 {k}_{j} {k}_{i}' 分别代表模块j和Chiplet i的数目,公式描述为:

    \begin{array}{c}{C}_{\mathrm{S}\mathrm{o}\mathrm{C}}\leftarrow module=\left\{{m}_{1},{m}_{2},… ,{m}_{j}\right\},\end{array} (1)
    \begin{array}{c}{chip}_{i}=\left\{{m}_{2}^{{k}_{2}},{m}_{3}^{{k}_{3}},… ,{m}_{j}^{{k}_{j}}\right\},{m}_{j}\in module,\end{array} (2)
    \begin{array}{c}{C}_{\mathrm{C}\mathrm{h}\mathrm{i}\mathrm{p}\mathrm{l}\mathrm{e}\mathrm{t}}=\left\{{chip}_{1}^{{k}_{1}'},{chip}_{2}^{{k}_{2}'},… ,{chip}_{i}^{{k}_{i}'}\right\}.\end{array} (3)

    实验创建了一个SoC模型作为参照示例,其由8个Rocket Tile、4个L2 Bank和4个内存访问模块组成,通过4×4 的Mesh网络进行互连集成. 其中每个Rocket Tile微架构被设计为Rocket Core(Chisel编写的五级有序标量处理器内核)、PTW (page-table walker)、一级指令缓存(L1 instruction cache, L1I)和一级数据缓存(L1 data cache, L1D). Tile架构内还可配置一个Rocket核定制协处理器RoCC(Rocket custom co-processor)连接到内核,以在特定应用领域进行加速.

    图2所示,我们基于SOC划分对Chiplet架构进行建模. 考虑到Chiplet集成的复用特点,将SoC可以划分为Rocket Tile、L2 缓存和内存通道3种模块作为示例,它们可以被分别设计为独立的Chiplet,也可以相互组合成为不同类型的Chiplet. Chiplet间的互连是Chiplet架构的关注点,在先进的2.5维和3维封装中,通常采用基于NoC的互连结构[53].

    图  2  芯片建模示意图
    Figure  2.  Illustration of chip modeling

    相较于单芯片的网络结构,Chiplet间的互连网络面临着更复杂的互连挑战,即:

    1)层次化网络.Chiplet架构下的互连不仅要处理Chiplet内的通信,还要跨越Chiplet边界实现Chiplet间高效的数据交换.

    2)各向异性互连. 由于Chiplet异构的可能性以及Chiplet尺寸的差异,互连结构需要支持不同Chiplet之间的通信延迟和带宽可独立配置.

    3)不规则拓扑. Chiplet的放置布局会影响互连设计方案,并且先进封装也一定程度上限制了互联网络的物理结构,容易导致不规则的拓扑结构.

    Chiplet架构的互连网络设计关键在于联系Chiplet内与Chiplet间的数据传输,实现这一目标依靠Constellation支持的丰富的可配置的物理规范,包括网络通道、路由器配置和终端的关键参数等. FireLink下互连网络建模支持的关键设计参数包括:虚拟通道数目、有效负载宽度、终端延迟、互连传输速度和拓扑结构等,基于这些参数的差异化配置,可以细致描述Chiplet互连结构的关键特征,使得互连结构能够适配Chiplet的特定需求. 例如Chiplet内/间的链路距离对传输速率的影响可以由通道速度与终端延迟表征,有效负载宽度能够根据每个Chiplet的数据传输需求和内外互连场景进行特异性配置.

    通过建立分层网络结构来描述Chiplet内部互连与Chiplet间互连的传输效率差异性,Chiplet架构的互连结构建模问题得以解决. 除了可参数化的设计因素以外,FireLink框架还支持路由算法、流量规范和虚拟通道分配策略等互连网络设计权衡. 能够精确到每个节点的配置功能为Chiplet的互连结构提供了充分自由的设计空间,由此物理的封装实现能够有效映射到互连结构设计中.

    所有的设计文件都使用Chisel 语言构建,Chisel是一种以Scala为基础开发的开源的硬件设计语言,由于Scala中支持了丰富的包、类和预定义硬件描述,FireLink框架下进行硬件设计是高度模块化、参数化的. 相对于Verilog,VHDL,SystemVerilog等传统的硬件设计语言,使用Chisel进行开源处理器的敏捷化设计和开发探索十分高效,能够将硬件模块设计的时间压缩50%以上,进而减少芯片验证与实现的迭代周期(30%以上) [54]. 当目标设计完成后,Chisel格式的设计文件通过Chisel编译工具链转换为一种名为FIRRTL的中间表达,FIRRTL进一步可以生成SystemVerilog 格式的寄存器传输级硬件代码,后续的模拟过程都是以此作为输入.

    在基于Chiplet集成的芯片设计初期对其成本进行估计是有必要的,设计者必须清晰了解芯片设计策略在成本上的潜在优势,因为这将影响芯片架构设计决策. 在相同成本下的PPA表现劣于SoC集成的Chiplet集成设计方案是不可接受的.

    为了对Chiplet架构进行准确的评估,验证设计空间探索的正确性和可靠性的切实需求. 本文面向Chiplet架构提出了一个PPAC评估函数,该函数基于芯片设计的性能、功耗、面积和成本4个关键参数. PPAC是一个综合的评估指标,其包含的4个输入对结果的影响程度是不一样的,例如性能提升10%并不能和降低10%的功耗相等. 所以基于加权平均法对性能、功耗和面积因素分别赋予权重.

    {I}_{\mathrm{P}\mathrm{P}\mathrm{A}\mathrm{C}}=\frac{\alpha \times performance+\beta \times {power}^{-1}+\gamma \times {area}^{-1}}{cost}, (4)
    \alpha +\beta +\gamma =1. (5)

    式(4)中αβ\gamma 是权重系数,权重值随设计目标和应用需求调整以控制设计优化方向. 例如面向低功耗的设计,从体系结构的层次考虑能够使芯片功耗优化幅度更显著[55]β的取值将适当增加. 其余4个参数performancepowerareacost分别是目标Chiplet架构设计的性能、功耗和面积的量化指标以及成本模型的输出,它们的值在FireLink的流程中获取,并且获取这些值的方法是解耦的.

    性能作为评价体系结构设计的关键参数,在设计验证中,将目标设计的硬件描述实例化并映射到FPGA,通过运行真实的应用程序以获取精确的性能指标. Vivado 软件的综合工具将目标设计描述的SystemVerilog代码综合成硬件,在此过程中可以从输出的功耗报告中获取功耗参数power的相关信息.

    面积参数的获取通常需要基于商业EDA工具(如Cadence[56],Synopsys[57]等)完成,但对于前期设计而言这是一个非常耗时的过程,严重影响设计空间探索过程中反复迭代优化的效率. FireLink框架通过引入了快速RTL综合工具Yosys,在设计后端将SystemVerilog文件综合为门级网表,获取总体设计的晶体管规模大小,以估算面积. 与此同时,在FPGA加速仿真流程中,当通过Vivado对硬件设计进行综合和实现时可以得到利用报告作为面积参数的辅助参考.

    成本模型参考了Chiplet Actuary[15]的工作,在此基础上依托FireLink和设计流程重新解释了成本模型,以更好地指导该框架下对Chiplet架构的设计空间探索. 主要变化在于成本模型中的设计成本,如式(6)所示.

    \begin{split} {cost}_{\mathrm{d}\mathrm{e}\mathrm{s}\mathrm{i}\mathrm{g}\mathrm{n}}=\;&\sum _{{m}_{i}\in M}\left({K}_{{m}_{i}}{N}_{{m}_{i}}\delta +{C}_{\mathrm{m}\mathrm{o}\mathrm{d}\mathrm{u}\mathrm{l}\mathrm{e}}\right)+\\ &\sum _{{c}_{i}\in C}\left({K}_{{c}_{i}}{N}_{{c}_{i}}\delta +{C}_{\mathrm{c}\mathrm{h}\mathrm{i}\mathrm{p}}\right).\end{split} (6)

    图3所示,Chiplet集成系统在设计成本上的特征表现在3个方面:

    图  3  成本模型示意图
    Figure  3.  Illustration of cost model

    1)额外的D2D功能模块的设计成本;

    2)Chiplet集成芯片需要支付与SoC相同的功能模块设计成本,除此之外其基本的集成单元——Chiplet是由模块集合M的子集实现的Die,每一种类型的Chiplet会产生额外的架构设计成本;

    3)Chiplet集成具有一个显著的特点,这种设计使Chiplet可以在广泛的系统中重复使用,即Chiplet被视为成本可摊销的“硬件IP”.

    为解决面向Chiplet架构的芯片设计评估问题,尤其是面对基于SoC分解的Chiplet集成系统是否具备实现的经济可行性,本文基于提出的Chiplet架构设计和模拟框架FireLink以及可获取的数据信息重新对成本模型进行了描述. 成本模型中各个公式中的参数、特征数据均来自于公共数据和相关工作所开放的信息,推荐使用商业信息以及EDA后端真实数据以进一步获得更好的可靠性和准确性.

    基于RTL生成器的模块化硬件设计方法以及敏捷设计语言带来的快速可配置性,芯片的微架构设计被抽象和简化为设计参数的选择. 通过参数配置能够快速地描述目标设计架构并搭建完整的系统模型,这有助于设计空间探索快速迭代设计方案. 基于前文介绍的FireLink框架和工具链,本文设计了一个自动化的芯片设计优化和评估流程,以支持面向Chiplet架构的设计空间探索. 如图4所示,评估是整个流程的关键,它由基于设计参数优化的设计空间探索算法以及以PPAC指标为参考的设计验证方法2个部分组成.

    图  4  设计空间探索流程示意图
    Figure  4.  Illustration of DSE

    Chiplet架构的设计空间Φ是各Chiplet设计空间与Chiplet集成相关的设计参数 {P}' 的笛卡儿积,是一个复杂的高维空间. 其中 {P}' 不会作为设计空间探索算法的输入,将在算法运行过程前确定. {P}' 定义为多Chiplet互连层次的设计参数,主要集中在Chiplet间互连结构上,由于层次化的互连网络作为Chiplet间通信的基础架构,其设计决策直接关联到整个系统的物理实现,所以互连结构的设计参数需要在进行详细的设计空间探索之前被初步确认.

    \varPhi =\prod\limits_{i=1}^{n}{chip}_{i}\times {P}'. (7)

    图4中芯片架构所有的设计参数被包装为一个集合,它会确定一个完整的芯片架构. 如式(8)所示,每个设计参数p由多个离散的候选值v组成,这些候选值构成了设计参数的取值范围. 通常情况下,每种设计参数的候选值范围是不同的,并且分布是不均匀的.

    Chiplet=\left\{{p}_{1},{p}_{2},… ,{p}_{j}\right\}, {p}_{j}=\left\{{v}_{1},{v}_{2},… ,{v}_{i}\right\}. (8)

    Chiplet架构的设计空间探索问题实质上就是对所有影响设计的因素x进行选择权衡,通过评估架构设计的PPAC指标,衡量设计方案的优劣. 设计空间探索就是一个不断迭代搜索最佳设计的过程,可以表述为

    \begin{array}{c}{\boldsymbol{design}}=\left({x}_{1},{x}_{2},… ,{x}_{n}\right),\end{array} (9)
    \begin{array}{c}Y:{\boldsymbol{design}}\to Evaluation,\\ Y\left({\boldsymbol{design}}\right)=E\left(performance,power,area,cost\right),\end{array} (10)
    {{\boldsymbol{design}}}^{*}=\mathop{\mathrm{arg\;max}}\limits_{{\boldsymbol{design}}\in \varPhi }\;E\left({\boldsymbol{design}}\right). (11)

    丰富的设计参数在具备优异的设计灵活性的同时,也使得错误的配置更容易发生. 对于经验丰富的架构设计者而言,基于先验知识可以很好地避免这种情况. 但Chiplet集成的系统作为一种新的设计架构,并不能确保传统的多核架构设计“经验”总能发挥作用. 在面对设计参数集合这种离散数据时,ID3[58]算法具有很好的适用性,并且不需要对数据进行规范化和标准化处理. 为此在选择设计参数时通过采用ID3算法为历史设计参数选择构建决策树分类器,进而预测并生成合理的设计参数集,以尽可能避免“违法”的参数配置.

    设计文件首先会进行软件模拟以验证设计参数的有效性,因为在编译生成模拟器的寄存器传输级硬件代码过程中可能会出现 “illegal argument exception” 等类似错误. 如果当前编译的设计参数属于“illegal”,那么这一组设计参数将被打上“erro”的标签,然后写入一个数据集. 而成功编译并进行RISC-V基准测试的设计参数集合,作为成功的案例被标记为“success”. 以设计参数是否能成功编译作为分类特征,基于ID3算法对历史设计参数构建的决策树模型预测并生成合法的设计参数配置,并以此作为新的设计架构描述,这一过程变相实现了对设计空间的裁剪. 具体算法如算法1所示.

    算法1. 基于ID3生成设计参数算法.

    输入:历史设计参数数据集Data

    输出:预测的有效设计参数集合Parameters.

    Train_set, Test_set \leftarrow Split_dataset (Data);/*根 据目标特征划分训练集与测试集*/

    base_entropy \leftarrow Calculate_entropy(Train_set);

    /*计算数据集信息熵*/

    ③ for each attribute in Train_set

    ④  info_gain \leftarrow Gain(base_entropy, attribute, Train_set);/*计算当前属性信息增益*/

    ⑤  best_attribut \leftarrow Judge(attribute, info_gain); /*评判信息增益获取最佳属性*/

    ⑥ end for

    Tree.root \leftarrow best_attribute;/*最佳属性作为决策 树根节点*/

    ⑧ for each value in tree.root

    ⑨  subset \leftarrow Get_subset(Tree.root, value);/*获取 最佳属性的每个值子集*/

    ⑩ end for

    ⑪ if subset is empty

    ⑫  Tree.Add_leaf(value);

    ⑬ else if subset is not empty

    ⑭  subtree \leftarrow ID3_Subtree(subset);/*递归构建子 树*/

    ⑮  Tree.add_subtree(value, subtree);

    ⑯ end if

    ⑰ while node is not None /*选择一个叶节点开始 直至无下一节点*/

    ⑱  Parameter[node.attribute] \leftarrow node.value

    ⑲  node \leftarrow Tree.get_next(node);/*根据决策树的 规则选择下一个节点*/

    ⑳ end while

    PPAC作为一个评价目标Chiplet架构设计方案是否优异的关键判断因素,它受诸多设计因素影响,不仅是设计参数,也包括FireLink框架下各个工具本身的误差和程序运行的误差(即使在相同设计下测试程序每次的结果都不是完全一致的). 并且性能、功耗、面积和成本也并非真实芯片的数据,只是基于当前设计的模型的特征信息的一个量化的值. 但是对于早期的实际空间探索而言,这些指标足以反映芯片设计的“趋势”. 因为FireLink框架下Chiplet设计的架构不同于软件模拟器中的模型,所有的设计单元都会生成相应的硬件代码,并且能够基于FPGA进行电路实现. 所以在FireLink下的模拟数据具有较强的可信度,能够为Chiplet架构设计者提供可靠的参考和决策意见.

    在本节中将分析3个案例以证明提出的面向Chiplet架构设计空间探索的评估框架的可行性. 实验以8核RISC-V系统为目标,以2.2节中建模的SoC设计模型为基础. 实验相关参数如表3所示,实验构建了多个Chiplet集成芯片架构设计模型以探索不同维度的设计方法,并基于定量的综合评估帮助深入理解其背后的原理.

    表  3  实验相关参数
    Table  3.  Experimental Relative Parameters
    配置 参数 取值
    处理器核 类型 Rocket Core
    数目 8
    L1缓存 关联度 4路组相联
    大小/KB 32
    延迟 2
    L2缓存 关联度 8路组相连
    大小/KB 4×512
    内存通道 数目 4
    互联网络 虚拟通道数 4
    Chiplet内/间报文传输速度 4/1
    Chiplet内/间有效负载宽度 128/32
    FPGA 型号 U250
    运行频率/MHz 80
    下载: 导出CSV 
    | 显示表格

    分区划分、Chiplet尺寸与制造成本、Chiplet的复用性等多个因素影响下的设计权衡是一项困难的挑战,如何将单Die形式的SoC设计转换为Chiplet集成的系统是架构设计师首先需要进行思考的问题. 在FireLink框架下,芯片架构的设计被简化为一个功能部件堆叠配置的过程,这帮助设计者能够很容易地以功能作为划分标准实现SoC解构. 如第2节中所展示的那样,在此展示一个范例,简单地将SoC划分为处理器核心区、高速共享缓存区以及存储控制区,总线、接口及其余部件纳入互连网络区域中. 实际上在FireLink框架下设计空间的定义是更加灵活和广泛的,支持更广泛的划分方式. 由于Chisel语言的高度模块化特点,Core,MMIO,DMA,I/O等系统组件能够作为更细粒度的模块在系统中进行集成,并允许将这些模块合并或分离为单独的Chiplet.

    通过控制设计变量,每个案例设计仅对Chiplet的划分方式进行修改,在固定的硬件配置参数下设置了8种Chiplet架构功能划分和布局的设计范例,如图5所示. 根据分区划分方案建立Chiplet模型,其中Chiplet A将Tile和其他部件分别划分为2个独立的Chiplet,Chiplet B将Tile分别与Bank和DRAM模块组合形成2个不同的Chiplet. 与此同时还建立了Chiplet C和Chiplet D这2种由同种Chiplet集成的架构设计,其余4种分区划分的方案旨在探索Chiplet架构划分粒度对PPAC的影响. 构建完成的模型经编译生成对应的寄存器传输级设计文件,分别输入Yosys和Firesim流程中获取的面积、性能和功耗参数,然后估算成本.

    图  5  Chiplet分区示意图
    Figure  5.  Illustration of Chiplet partitions

    更进一步,需要考虑如何确定各功能分区的划分粒度、如何设计Chiplet的模块组成结构. 由于良率模型是一个负指数幂函数[18],显而易见随着单片的尺寸增加,其制造良率下降的速度会越来越快,极大地阻碍了大规模、大面积的单片SoC进一步提高集成度. 因此需要在完整的设计、模拟和评估框架下衡量Chiplet尺寸对设计方案总成本的显著影响,以快速确认设计方向.

    这项实验的目的是探讨SoC划分的经济效益,为此,对SoC的总成本和总的硅面积进行了归一化处理,以更直观地体现Chiplet集成方案与SoC的差异. 如图6所示,基于Chiplet集成的架构设计在总成本上普遍具有优势. 促成这一现象的原因一方面在于开发Chiplet的设计成本由于更广泛的应用性获得了更大程度的摊销,另一方面则是小尺寸Chiplet具有更高的良率从而降低了制造成本. 可以预见的是,随着市场需求(Chiplet生产的规模)增大,设计成本在芯片总成本中的占比会越来越小,工艺、材料和那些不可摊销的成本会变得越来越重要.

    图  6  Chiplet划分在成本上的差异
    Figure  6.  Difference in the cost of Chiplet partition

    图6所展示的,Chiplet架构在制造成本上相比于SoC的下降并不明显,这是因为在应用成本模型时,中介层的成本的权重重要性相比其他因素有所提高,以体现先进集成技术的高成本. 与此同时,SoC划分出的Chiplet并非越小越好. 因为分裂为更多数量Chiplet的同时,也引入了更多的D2D模块和更复杂的互连网络. 可以分析得出,更微小的划分会增加集成和封装成本,而总硅面积是增长的,并且当集成(例如有源中介层或3维集成技术)成本进一步提高时,SoC与基于Chiplet集成的设计之间的成本差距就越小. 事实上,如今Chiplet集成设计实现大规模量产面临的关键问题就在于如何降低先进封装的成本,否则基于Chiplet集成的芯片方案可能比SoC更昂贵. 随着时间的推移和技术逐渐成熟,SoC的成本会呈下降趋势,但是集成规模依旧难以提升. 因此,Chiplet集成作为能够在封装内持续提升晶体管集成数目的有效方法,随着先进封装技术的发展趋势向好,基于Chiplet集成的芯片架构将会有更好的发展前景.

    采用与3.1节Chiplet分区划分实验相同的硬件配置,表3中的设计参数不做改变,进行同样的实验流程. 如图7所示,实验建立了4种不同的Chiplet布局方案. 通过Constellation生成固定的3×3的Mesh 拓扑结构,将Chiplet分布到不同的逻辑节点上. 由于Constellation是一个高度解耦的规范系统,物理网络资源规范,逻辑端点行为和流控制规范相互分开. 路由节点间会自动生成匹配的逻辑规范和流控制,并且可以确保是无死锁的. 互连网络将和Chiplet的设计一起集成生成寄存器传输级硬件代码,最终映射到FPGA上,这一过程相当于自动完成了Chiplet之间的布局布线流程.

    图  7  Chiplet布局示意图
    Figure  7.  Illustration of Chiplet layout

    实验在本地FPGA上运行了GAP benchmark suite[59],以探索面向加速图形处理的Chiplet架构. 在图7中展示了Chiplet架构4种布局方式在功耗和性能上的差异,以相同配置的SoC功耗与性能作为参考. 可以发现一个现象:Chiplet集成的架构在功耗和性能上并不占有优势. 这是因为Chiplet间的互连延迟增加了内存访问的压力,数据处理的速度受到影响,并且额外的D2D通信开销会引入额外的功耗. 之所以4种布局的Chiplet集成架构在功耗和性能上的表现存在差异,主要原因在于通信效率. 其中Chiplet J和Chiplet L总有一个处理单元存在“远访问”,尤其对于Chiplet J中处于最边缘位置的Chiplet而言,访问缓存和内存的代价更高. 而Chiplet I和Chiplet K中的运算Chiplet总能就近完成访存动作,但Chiplet I的布局降低了数据在处理单元之间的传输效率,因此相比于Chiplet K产生了更高的功耗.

    由于相同的Chiplet尺寸,4种布局方案在面积上的差异可以忽略,此时传统的PPA指标难以全面评估它们的优劣. 基于Chiplet布局的拓扑逻辑复杂性分析布局方式对成本的影响[60],本文提出的PPAC指标计算能够实现对Chiplet布局方式进行评估. 必须注意的是,式(4)中的参数αβγ的选取对最终的评估结果存在直接影响,如图8所示.

    图  8  PPAC参数选取对Chiplet布局评估的影响
    Figure  8.  Influence of PPAC parameter selection on Chiplet layout evaluation

    Chiplet的布局规划是芯片设计的关键步骤,事实上这也是一个极其复杂的问题,这一过程需要考虑布线密度、传输延迟、信号干扰、散热性等多方面因素. 本文的关注点并不会深入到这些细节中去,而是进行一个更高维度的、抽象程度更高的探索. Chiplet放置在中介层上通过NoC实现互连接,通过改变Chiplet之间的位置关系,进一步研究Chiplet的逻辑布局对系统整体性能的影响.

    在微架构层次,Rocket Core公开了许多参数以支持灵活的定制化设计,包括浮点管道阶段的数量、缓存大小和转换旁路缓冲器(translation look-aside buffer, TLB)大小等. 实验选取了11个具有代表性的设计参数作为输入,设计空间规模约为7×109,如表4所示. 并且选择了来自于开源测试套件 RISCV-Tests[61]的12种基准测试程序来评估微架构的性能.

    表  4  Rocket核微架构设计参数空间
    Table  4.  Microarchitecture Design Parameter Space of Rocket Core
    模块设计参数取值
    MulmulUnroll1,2,4,6,8,10,12,14,16
    sfmaLatency1,2,3,4,5,6,7,8
    dfmaLatency1,2,3,4,5,6,7,8
    nPMPs1,2,4,6,8, 10,12,14,16
    CachenSets2,4,8,16,32
    nWays1,2,4,6,8,10,12,14,16
    nTLBSets1,2,4,6,8,10,12,14,16
    nTLBWays2,4,8,16,32
    nMSHRs1,2,3,4,5,6,7,8,9
    BTBnEntires4,8,12,16,24,28
    nPages1,2,4,6,8,10,12,14,16
    下载: 导出CSV 
    | 显示表格

    实验探索了基于Rocket核的Chiplet架构设计,其中不满足设计规则的设计参数数量大约占搜索空间的85%以上,一个合法微架构(8核规模下)完整的模拟评估时间为2~3 h,在100组错误数据训练下ID3算法对“合法”设计参数的预测准确率能够达到95%以上. 另一方面,通过ID3决策树模型分析,可以获取到每一种设计参数对于各类测试程序的影响程度. 每一种设计参数在不同类型的测试程序下对芯片性能产生的影响是不同的,图9展示了对于每种测试程序性能影响最大的3个设计参数.

    图  9  设计参数对测试程序性能的影响
    Figure  9.  Impact of design parameters on the performance of the test program

    处理器核的微架构中物理内存保护单元(physical memory protection unit,PMP)的数目对于RISCV-Tests下的PMP-benchmark测试程序的性能而言具有特殊的影响. 缺失状态保持寄存器(miss-status handling registers,MSHR)是用于处理缓存失效(cache miss)的功能单元,记录未完成的访存请求,展现了与运算性能显著的关联度. 建议在设计开始之前首先基于先验知识确定设计目标以及那些未知的和感兴趣的芯片参数,这将有效减少设计空间规模以及建模的复杂度,当然更大规模的设计空间探索在本文提出的FireLink下是可行的.

    表5展示了一种局部最优的设计方案,Chiplet架构自动DSE的结果与工程师手动设计的Rocket核集成SoC相比,除成本优势外,在PPA上并没有明显的优势. 这是由于设置了较高的互连“惩罚”,突出Chiplet架构对先进封装技术的依赖以及相应的高昂代价. 但是以相同的成本为约束时,Chiplet架构相对于SoC在成本上的冗余可以被投入在设计中,这意味着设计者会拥有更高的设计权自由度和更广阔的优化空间.

    表  5  Chiplet架构设计方案及评估结果
    Table  5.  Chiplet Architecture Design Schemes and Evaluation Results
    架构设计 目标 参数选择
    配置 布局类型 Chiplet E
    网络微架构 4,4:1,4,80,64,128, Mesh
    核微架构 4,2,4,4,16,4,4,4,2,28,8
    评估 性能 功耗 面积 成本
    ×0.93 ×1.03 ×1.13 ×0.86
    下载: 导出CSV 
    | 显示表格

    Chiplet架构基于一种自上而下的设计方法进行探索,首先需要确定Chiplet架构在多Chiplet集成层次的策略,基于先验知识和仿真探索其分区划分方式以及Chiplet间互连结构. 并且考虑各设计参数对不同类型应用程序的影响,能够倾向性地提高设计架构面向某一特定领域的性能.

    目前集成电路发展进入“后摩尔”时代,芯片设计制造面临着收益困境,Chiplet集成技术开始受到广泛关注. 面向新的处理器体系结构,传统的研究工具以及量化分析方法并不适用. 本文在许多不同的开源设计和开发工具之间进行了权衡与抉择,并通过控制版本、确保环境一致性和构建自动化部署脚本实现了不同工具间更高水平的协调和同步,从而创建一个完整的设计、模拟与评估全流程的设计空间探索框架——FireLink. 在该框架下探索了将单片SoC划分Chiplet的方法、集成这些Chiplet的布局方案以及单个Chiplet的微架构设计,并且提出了PPAC用于探索PPA与芯片成本的权衡. 基于敏捷设计与机器学习方法,FireLink提升了面向Chiplet架构设计的设计空间探索效率,为Chiplet体系结构提供辅助设计,能够有效解决芯片设计门槛高、周期长的现实难题.

    作者贡献声明:李开为论文主要完成人;曾坤指导实验;荣培涛、陈志强、张甜辅助完成实验并修改论文;王永文提出了指导意见.

  • 图  1   ULTRA与RulePreM提取的关系图对比

    Figure  1.   Comparison of relation graph extracted by ULTRA and RulePreM

    图  2   基于规则的关系IO图构造实例

    Figure  2.   An example of rule-based relational IO graph construction

    图  3   在归纳式推理数据集上的MRRHits@10结果

    Figure  3.   The results of MRR and Hits@10 on inductive reasoning datasets

    图  4   在全归纳式推理数据集上的MRRHits@10结果

    Figure  4.   The results of MRR and Hits@10 on fully-inductive reasoning datasets

    图  5   在转导式推理数据集上的MRRHits@10结果

    Figure  5.   The results of MRR and Hits@10 on transductive reasoning datasets

    图  6   与AnyBURL的对比实验结果

    Figure  6.   Comparative experimental results with AnyBURL

    图  7   不同规则置信度阈值下平均每个关系的规则数统计

    Figure  7.   Statistics of average number of rules per relation with various rule confidence threshold values

    图  8   不同规则置信度阈值下的MRR结果

    Figure  8.   Results of MRR under different rule confidence threshold values

    表  1   主实验的MRRHits@10

    Table  1   MRR and Hits@10 of the Main Experiment

    模型 归纳式推理(14 个数据集) 全归纳式推理(13 个数据集) 转导式推理(16 个数据集) 平均值(43个 数据集)
    MRR Hits@10 MRR Hits@10 MRR Hits@10 MRR Hits@10
    有监督SOTA 0.466 0.607 0.210 0.340 0.365 0.511 0.351 0.493
    ULTRA-预训练 0.512±0.002 0.663±0.003 0.353±0.005 0.536±0.005 0.330±0.004 0.479±0.004 0.396±0.001 0.557±0.001
    ULTRA-微调 0.529±0.005 0.684±0.004 0.349±0.007 0.543±0.005 0.384±0.005 0.547±0.006 0.421±0.002 0.590±0.001
    RulePreM-预训练 0.550±0.003 0.698±0.003 0.420±0.005 0.621±0.004 0.331±0.004 0.476±0.006 0.429±0.002 0.592±0.002
    RulePreM-微调 0.563±0.004 0.710±0.003 0.419±0.006 0.619±0.005 0.387±0.004 0.549±0.003 0.454±0.001 0.622±0.001
    注:黑体数值表示最优值;下划线数值表示次优值.
    下载: 导出CSV

    表  2   消融实验结果

    Table  2   Results of Ablation Study

    模型 归纳式推理
    (14个数据集)
    全归纳式推理
    (13个数据集)
    转导式推理
    (16个数据集)
    平均值
    (43个数据集)
    MRR Hits@10 MRR Hits@10 MRR Hits@10 MRR Hits@10
    完整模型 0.550 0.698 0.420 0.621 0.331 0.476 0.429 0.592
    w/o 置信
    度阈值
    0.380 0.522 0.299 0.459 0.162 0.259 0.275 0.405
    w/o 置信
    度注意力
    0.522 0.697 0.419 0.620 0.323 0.473 0.417 0.590
    w/o 关系IO图 0.223 0.425 0.101 0.229 0.075 0.145 0.131 0.262
    下载: 导出CSV

    表  3   基于规则关系编码变体实验结果

    Table  3   Experimental Results of Variants of Rule-Based Relation Encoding

    模型 归纳式推理
    (14个数据集)
    全归纳式推理
    (13个数据集)
    转导式推理
    (16个数据集)
    平均值
    (43个数据集)
    MRR Hits@10 MRR Hits@10 MRR Hits@10 MRR Hits@10
    关系IO图
    +RuleGNN
    0.550 0.698 0.420 0.621 0.331 0.476 0.429 0.592
    关系图+
    RuleGNN
    0.500 0.682 0.392 0.582 0.278 0.439 0.385 0.561
    规则体路径+LSTM 0.434 0.606 0.353 0.539 0.225 0.363 0.332 0.495
    下载: 导出CSV
  • [1] 刘知远,孙茂松,林衍凯,等. 知识表示学习研究进展[J]. 计算机研究与发展,2016,53(2):247−261 doi: 10.7544/issn1000-1239.2016.20160020

    Liu Zhiyuan, Sun Maosong, Lin Yankai, et al. Knowledge representation learning: A review[J]. Journal of Computer Research and Development, 2016, 53(2): 247−261 (in Chinese) doi: 10.7544/issn1000-1239.2016.20160020

    [2] 刘峤,李杨,段宏,等. 知识图谱构建技术综述[J]. 计算机研究与发展,2016,53(3):582−600 doi: 10.7544/issn1000-1239.2016.20148228

    Liu Qiao, Li Yang, Duan Hong, et al. Knowledge graph construction techniques[J]. Journal of Computer Research and Development, 2016, 53(3): 582−600 (in Chinese) doi: 10.7544/issn1000-1239.2016.20148228

    [3] 马昂,于艳华,杨胜利,等. 基于强化学习的知识图谱综述[J]. 计算机研究与发展,2022,59(8):1694−1722 doi: 10.7544/issn1000-1239.20211264

    Ma Ang, Yu Yanhua, Yang Shengli, et al. Survey of knowledge graph based on reinforcement learning[J]. Journal of Computer Research and Development, 2022, 59(8): 1694−1722 (in Chinese) doi: 10.7544/issn1000-1239.20211264

    [4] 王萌,王昊奋,李博涵,等. 新一代知识图谱关键技术综述[J]. 计算机研究与发展,2022,59(9):1947−1965 doi: 10.7544/issn1000-1239.20210829

    Wang Meng, Wang Haofen, Li Bohan, et al. Survey on key technologies of new generation knowledge graph[J]. Journal of Computer Research and Development, 2022, 59(9): 1947−1965 (in Chinese) doi: 10.7544/issn1000-1239.20210829

    [5]

    Lehmann J, Isele R, Jakob M, et al. DBpedia-A large-scale, multilingual knowledge base extracted from Wikipedia[J]. Semantic Web, 2015, 6(2): 167−195 doi: 10.3233/SW-140134

    [6]

    Vrandecic D, Krötzsch M. Wikidata: A free collaborative knowledgebase[J]. Communications of the ACM, 2014, 57(10): 78−85 doi: 10.1145/2629489

    [7]

    Ji Shaoxiong, Pan Shirui, Cambria E, et al. A survey on knowledge graphs: Representation, acquisition, and applications[J]. IEEE Transactions on Neural Networks and Learning Systems, 2022, 33(2): 494−514 doi: 10.1109/TNNLS.2021.3070843

    [8] 王萌,王靖婷,江胤霖,等. 人机混合的知识图谱主动搜索[J]. 计算机研究与发展,2020,57(12):2501−2513 doi: 10.7544/issn1000-1239.2020.20200750

    Wang Meng, Wang Jingting, Jiang Yinlin, et al. Hybrid human-machine active search over knowledge graph[J]. Journal of Computer Research and Development, 2020, 57(12): 2501−2513 (in Chinese) doi: 10.7544/issn1000-1239.2020.20200750

    [9]

    Wang Quan, Mao Zhendong, Wang Bin, et al. Knowledge graph embedding: A survey of approaches and applications[J]. IEEE Transactions on Knowledge and Data Engineering, 2017, 29(12): 2724−2743 doi: 10.1109/TKDE.2017.2754499

    [10]

    Guo Qingyu, Zhang Fuzhen, Qin Chuan, et al. A survey on knowlege graph-based recommender sysrem[C]// Proc of the 39th IEEE Int conf on Data Engineering. Piscataway, NJ: IEEE,2023:3803-3804

    [11]

    Rossi A, Barbosa D, Firmani D, et al. Knowledge graph embedding for link prediction: A comparative analysis[J]. ACM Transactions on Knowledge Discovery from Data, 2021, 15(2): 1−49

    [12]

    Brown T B, Mann B, Ryder N, et al. Language models are few-shot learners[C]//Proc of Annual Conf on Neural Information Processing Systems 2020. New York: Curran Associates, 2020: 1877−1901

    [13]

    Sun Zequn, Huang Jiacheng, Lin Jinghao, et al. Joint pre-training and local re-training: Transferable representation learning on multi-source knowledge graphs[C]//Proc of the 29th ACM SIGKDD Int Conf on Knowledge Discovery and Data Mining. New York: ACM, 2023: 2132−2144

    [14]

    Galkin M, Yuan Xinyu, Mostafa H, et al. Towards foundation models for knowledge graph reasoning[C]//Proc of 11th Int Conf on Learning Representations. Washington DC: OpenReview. net, 2023: 1−14

    [15]

    Chen Mingyang, Zhang Wen, Geng Yuxia, et al. Generalizing to unseen elements: A survey on knowledge extrapolation for knowledge graphs[C]//Proc of the 32nd Int Joint Conf on Artificial Intelligence. Freiburg: IJCAI, 2023: 6574−6582

    [16]

    Hamaguchi T, Oiwa H, Shimbo M, et al. Knowledge transfer for out-of-knowledge-base entities: A graph neural network approach[C]//Proc of the 26th Int Joint Conf on Artificial Intelligence. Freiburg: IJCAI, 2017: 1802−1808

    [17]

    Wang Peifeng, Han Jialong, Li Chenliang, et al. Logic attention based neighborhood aggregation for inductive knowledge graph embedding[C]//Proc of the 33rd AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2019: 7152−7159

    [18]

    Galkin M, Denis E G, Wu Jiapeng, et al. NodePiece: Compositional and parameter-efficient representations of large knowledge graphs[C]//Proc of the 10th Int Conf on Learning Representations. Washington DC: OpenReview. net, 2022: 1−14

    [19]

    Teru K, Denis E, Hamilton W. Inductive relation prediction by subgraph reasoning[C]//Proc of the 37th Int Conf on Machine Learning. New York: PMLR, 2020: 9448−9457

    [20]

    Chen Jiajun, He Huarui, Wu Feng, et al. Topology-aware correlations between relations for inductive link prediction in knowledge graphs[C]//Proc of the 35th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2021: 6271−6278

    [21]

    Mai Sijie, Zheng Shuangjia, Yang Yuedong, et al. Communicative message passing for inductive relation reasoning[C]//Proc of the 35th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2021: 4294−4302

    [22]

    Xu Xiaohan, Zhang Peng, He Yongquan, et al. Subgraph neighboring relations infomax for inductive link prediction on knowledge graphs[C]//Proc of the 31st Int Joint Conf on Artificial Intelligence. Freiburg: IJCAI, 2022: 2341−2347

    [23]

    Zhu Zhaocheng, Zhang Zuobai, Xhonneux L P, et al. Neural Bellman-Ford networks: A general graph neural network framework for link prediction[C]//Proc of Annual Conf on Neural Information Processing Systems 2021. New York: Curran Associates, 2021: 29476−29490

    [24]

    Zhang Yongqi, Yao Quanming. Knowledge graph reasoning with relational digraph[C]//Proc of the 31st Int Conf on World Wide Web. New York: ACM, 2022: 912−924

    [25]

    Zhu Zhaocheng, Yuan Xinyu, Galkin M, et al. A*Net: A scalable path-based reasoning approach for knowledge graphs[J]. arXiv preprint, arXiv: 2206.04798, 2022

    [26]

    Zhang Yongqi, Zhou Zhanke, Yao Quanming, et al. AdaProp: Learning adaptive propagation for graph neural network based knowledge graph reasoning[C]//Proc of the 29th ACM SIGKDD Int Conf on Knowledge Discovery and Data Mining. New York: ACM, 2023: 3446−3457

    [27]

    Lee J, Chung C, Whang J J. InGram: Inductive knowledge graph embedding via relation graphs[C]//Proc of the 40th Int Conf on Machine Learning. New York: PMLR, 2023: 18796−18809

    [28]

    Geng Yuxia, Chen Jiaoyan, Pan J Z, et al. Relational message passing for fully inductive knowledge graph completion[C]//Proc of the 39th Int Conf on Data Engineering. Piscataway, NJ: IEEE, 2023: 1221−1233

    [29]

    Gao Jianfei, Zhou Yangze, Ribeiro B. Double permutation equivariance for knowledge graph completion[J]. arXiv preprint, arXiv: 2302.01313, 2023.

    [30]

    Zhou Jincheng, Bevilacqua B, Ribeiro B. An OOD multi-task perspective for link prediction with new relation types and nodes[J]. arXiv preprint, arXiv: 2307.06046, 2023

    [31] 方阳,赵翔,谭真,等. 一种改进的基于翻译的知识图谱表示方法[J]. 计算机研究与发展,2018,55(1):139−150 doi: 10.7544/issn1000-1239.2018.20160723

    Fang Yang, Zhao Xiang, Tan Zhen, et al. A Revised translation-based method for knowledge graph representation[J]. Journal of Computer Research and Development, 2018, 55(1): 139−150 (in Chinese) doi: 10.7544/issn1000-1239.2018.20160723

    [32] 杨晓慧,万睿,张海滨,等. 基于符号语义映射的知识图谱表示学习算法[J]. 计算机研究与发展,2018,55(8):1773−1784 doi: 10.7544/issn1000-1239.2018.20180248

    Yang Xiaohui, Wan Rui, Zhang Haibin, et al. Semantical symbol mapping embedding learning algorithm for knowledge graph[J]. Journal of Computer Research and Development, 2018, 55(8): 1773−1784 (in Chinese) doi: 10.7544/issn1000-1239.2018.20180248

    [33]

    Dettmers T, Minervini P, Stenetorp P, et al. Convolutional 2D knowledge graph embeddings[C]//Proc of the 32nd AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2018: 1811−1818

    [34]

    Bordes A, Usunier N, García-Durán A, et al. Translating embeddings for modeling multi-relational data[C]//Proc of Annual Conf on Neural Information Processing Systems 2013. New York: Curran Associates, 2013: 2787−2795

    [35]

    Sun Zhiqing, Deng Zhihong, Nie Jianyun, et al. RotatE: Knowledge graph embedding by relational rotation in complex space[C]//Proc of the 7th Int Conf on Learning Representations. Washington DC: OpenReview. net, 2019: 1−18

    [36]

    Vashishth S, Sanyal S, Nitin V, et al. Composition-based multi-relational graph convolutional networks[C]//Proc of the 8th Int Conf on Learning Representations. Washington DC: OpenReview. net, 2020: 1−16

    [37]

    Galárraga L A, Teflioudi C, Hose K, et al. AMIE: Association rule mining under incomplete evidence in ontological knowledge bases[C]//Proc of the 22nd Int Conf on World Wide Web. New York: ACM, 2013: 413−422

    [38]

    Yang Fan, Yang Zhilin, Cohen W W. Differentiable learning of logical rules for knowledge base reasoning[C]//Proc of Annual Conf on Neural Information Processing Systems 2017. New York: Curran Associates, 2017: 2319−2328

    [39]

    Sadeghian A, Armandpour M, Ding P, et al. DRUM: End-to-End differentiable rule mining on knowledge graphs[C]//Proc of Annual Conf on Neural Information Processing Systems 2019. New York: Curran Associates, 2019: 15321−15331

    [40]

    Meilicke C, Chekol M W, Ruffinelli D, et al. Anytime bottom-up rule learning for knowledge graph completion[C]//Proc of the 28th Int Joint Conf on Artificial Intelligence. Freiburg: IJCAI, 2019: 3137−3143

    [41]

    Devlin J, Chang Mingwei, Lee K, et al. BERT: Pre-Training of deep bidirectional transformers for language understanding[C]//Proc of the 2019 Conf the North American Chapter of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2019: 4171−4186

    [42]

    Hou Zhenyu, Liu Xiao, Cen Yukuo, et al. GraphMAE: Self-supervised masked graph autoencoders[J]. arXiv preprint, arXiv: 2205.10803, 2022

    [43]

    Hu Weihua, Liu Bowen, Gomes J, et al. Strategies for pre-training graph neural networks[C]//Proc of the 8th Int Conf on Learning Representations. Washington DC: OpenReview. net, 2020: 1−15

    [44]

    Rong Yu, Bian Yatao, Xu Tingyang, et al. Self-Supervised graph transformer on large-scale molecular data[C]//Proc of Annual Conf on Neural Information Processing Systems 2020. New York: Curran Associates, 2020: 1−13

    [45]

    Sun Fanyun, Hoffmann J, Verma V, et al. InfoGraph: Unsupervised and semi-supervised graph-level representation learning via mutual information maximization[C]//Proc of the 8th Int Conf on Learning Representations. Washington DC: OpenReview. net, 2020: 1−13

    [46]

    Velickovic P, Fedus W, Hamilton W L, et al. Deep graph infomax[C]//Proc of the 7th Int Conf on Learning Representations. Washington DC: OpenReview. net, 2019: 1−13

    [47]

    Fang Taoran, Zhang Yunchao, Yang Yang, et al. Prompt tuning for graph neural networks[J]. arXiv preprint, arXiv: 2209.15240, 2022

    [48]

    Liu Zemin, Yu Xingtong, Fang Yuan, et al. GraphPrompt: Unifying pre-training and downstream tasks for graph neural networks[C]//Proc of the 32nd Int Conf on World Wide Web. New York: ACM, 2023: 417−428

    [49]

    Gong Chenghua, Li Xiang, Yu Jianxiang, et al. Prompt tuning for multi-view graph contrastive learning[J]. arXiv preprint, arXiv: 2310.10362, 2023

    [50]

    Zhu Yun, Guo Jianhao, Tang Siliang. SGL-PT: A strong graph learner with graph prompt tuning[J]. arXiv preprint, arXiv: 2302.12449, 2023

    [51]

    Shirkavand R, Huang Heng. Deep prompt tuning for graph transformers[J]. arXiv preprint, arXiv: 2309.10131, 2023

    [52]

    Ma Yihong, Yan Ning, Li Jiayu, et al. HetGPT: Harnessing the power of prompt tuning in pre-trained heterogeneous graph neural networks[J]. arXiv preprint, arXiv: 2310.15318, 2023

    [53]

    Ge Qingqing, Zhao Zeyuan, Liu Yiding, et al. Enhancing graph neural networks with structure-based prompt[J]. arXiv preprint, arXiv: 2310.17394, 2023

    [54]

    Sun Xiangguo, Cheng Hong, Li Jia, et al. All in one: Multi-task prompting for graph neural networks[C]//Proc of the 29th ACM SIGKDD Int Conf on Knowledge Discovery and Data Mining. New York: ACM, 2023: 2120−2131

    [55]

    Chen Mouxiang, Liu Zemin, Liu Chenghao, et al. ULTRA-DP: ULTRA-unifying graph pre-training with multi-task graph dual prompt[J]. arXiv preprint, arXiv: 2310.14845, 2023

    [56]

    Sun Xiangguo, Zhang Jiawen, Wu Xixi, et al. Graph prompt learning: A comprehensive survey and beyond[J]. arXiv preprint, arXiv: 2311.16534, 2023

    [57]

    Chen Xuelu, Chen Muhao, Fan Changjun, et al. Multilingual knowledge graph completion via ensemble knowledge transfer[C]//Proc of the 2020 Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2020: 3227−3238

    [58]

    Singh H, Chakrabarti S, Jain P, et al. Multilingual knowledge graph completion with joint relation and entity alignment[C]//Proc of the 3rd Conf on Automated Knowledge Base Construction. Virtual: Online, 2021: 1−7

    [59]

    Huang Zijie, Li Zheng, Jiang Haoming, et al. Multilingual knowledge graph completion with self-supervised adaptive graph alignment[C]//Proc of the 60th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2022: 474−485

    [60]

    Chakrabarti S, Singh H, Lohiya S, et al. Joint completion and alignment of multilingual knowledge graphs[C]//Proc of the 2022 Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2022: 11922−11938

    [61]

    Sun Zequn, Zhang Qingheng, Hu Wei, et al. A benchmarking study of embedding-based entity alignment for knowledge graphs[J]. Proceedings of the VLDB Endowment, 2020, 13(11): 2326−2340

    [62]

    Chen Muhao, Tian Yingtao, Yang Mohan, et al. Multilingual knowledge graph embeddings for cross-lingual knowledge alignment[C]//Proc of the 26th Int Joint Conf on Artificial Intelligence. Freiburg: IJCAI, 2017: 1511−1517

    [63]

    Wu Yuting, Liu Xiao, Feng Yansong, et al. Relation-aware entity alignment for heterogeneous knowledge graphs[C]//Proc of the 28th Int Joint Conf on Artificial Intelligence. Freiburg: IJCAI, 2019: 5278−5284

    [64]

    Mao Xin, Wang Wenting, Wu Yuanbin, et al. Boosting the speed of entity alignment 10×: Dual attention matching network with normalized hard sample mining[C]//Proc of the 30th Int Conf on World Wide Web. New York: ACM, 2021: 821−832

    [65]

    Sun Zequn, Wang Chengming, Hu Wei, et al. Knowledge graph alignment network with gated multi-hop neighborhood aggregation[C]//Proc of the 34th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2020: 222−229

    [66]

    Sun Zequn, Hu Wei, Zhang Qingheng, et al. Bootstrapping entity alignment with knowledge graph embedding[C]//Proc of the 27th Int Joint Conf on Artificial Intelligence. Freiburg: IJCAI, 2018: 4396−4402

    [67]

    Wang Zhichun, Lv Qingsong, Lan Xiaohan, et al. Cross-lingual knowledge graph alignment via graph convolutional networks[C]//Proc of the 2018 Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2018: 349−357

    [68]

    Zhang Wen, Zhu Yushan, Chen Mingyang, et al. Structure pretraining and prompt tuning for knowledge graph transfer[C]//Proc of the 32nd Int Conf on World Wide Web. New York: ACM, 2023: 2581−2590

    [69]

    Galkin M, Berrendorf M, Hoyt C T. An open challenge for inductive link prediction on knowledge graphs[J]. arXiv preprint, arXiv: 2203.01520, 2022

    [70]

    Toutanova K, Chen D. Observed versus latent features for knowledge base and text inference[C]//Proc of the 3rd Workshop on Continuous Vector Space Models and Their Compositionality. Stroudsburg, PA: ACL, 2015: 57−66

    [71]

    Xiong Wenhan, Hoang Thien, Wang W Y. Deeppath: A reinforcement learning method for knowledge graph reasoning[C]//Proc of the 2017 Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2017: 564−573

    [72]

    Mahdisoltani F, Biega J, Suchanek F M. YAGO3: A knowledge base from multilingual Wikipedias[C]//Proc of the 7th Biennial Conf on Innovative Data Systems Research (CIDR). https://www.cidrdb.org/cidr2015/papers/CIDR15_paperl.pdf

    [73]

    Safavi T, Koutra D. CoDEx: A comprehensive knowledge graph completion benchmark[C]//Proc of the 2020 Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2020: 8328−8350

    [74]

    Lv Xin, Han Xu, Hou Lei, et al. Dynamic anticipation and completion for multi-hop reasoning over sparse knowledge graph[C]//Proc of the 2020 Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2020: 5694−5703

    [75]

    Chen Yihong, Minervini P, Riedel S, et al. Relation prediction as an auxiliary training objective for improving multi-relational graph representations[C]//Proc of the 3rd Conf on Automated Knowledge Base Construction. Virtual: Proceeding, 2021: 1−21

    [76]

    Ding Boyang, Wang Quan, Wang Bin, et al. Improving knowledge graph embedding using simple constraints[C]//Proc of the 56th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2018: 110−121

    [77]

    Malaviya C, Bhagavatula C, Bosselut A, et al. Commonsense knowledge base completion with structural and semantic context[C]//Proc of the 34th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2020: 2925−2933

    [78]

    Himmelstein D S, Lizee A, Hessler C, et al. Systematic integration of biomedical knowledge prioritizes drugs for repurposing[J]. eLife, 2017, 6: e26726 doi: 10.7554/eLife.26726

    [79]

    Chen Yihong, Minervini P, Riedel S, et al. Relation prediction as an auxiliary training objective for improving multi-relational graph representations[C]//Proc of the 3rd Conf on Automated Knowledge Base Construction. Virtual: Proceeding, 2021: 1−13

    [80]

    He Tao, Liu Ming, Cao Yixin, et al. Exploring & exploiting high-order graph structure for sparse knowledge graph completion[J]. arXiv preprint, arXiv: 2306.17034, 2023

    [81]

    Guo Jia, Kok S. BiQUE: Biquaternionic embeddings of knowledge graphs[C]//Proc of the 2021 Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2021: 8338−8351

图(8)  /  表(3)
计量
  • 文章访问数:  240
  • HTML全文浏览量:  122
  • PDF下载量:  103
  • 被引次数: 0
出版历程
  • 收稿日期:  2024-03-14
  • 修回日期:  2024-04-25
  • 网络出版日期:  2024-05-16
  • 刊出日期:  2024-07-31

目录

/

返回文章
返回