Loading [MathJax]/jax/output/SVG/jax.js
  • 中国精品科技期刊
  • CCF推荐A类中文期刊
  • 计算领域高质量科技期刊T1类
高级检索

支持等式测试及密码逆向防火墙的SM9标识加密方案

熊虎, 林烨, 姚婷

熊虎, 林烨, 姚婷. 支持等式测试及密码逆向防火墙的SM9标识加密方案[J]. 计算机研究与发展, 2024, 61(4): 1070-1084. DOI: 10.7544/issn1000-1239.202220809
引用本文: 熊虎, 林烨, 姚婷. 支持等式测试及密码逆向防火墙的SM9标识加密方案[J]. 计算机研究与发展, 2024, 61(4): 1070-1084. DOI: 10.7544/issn1000-1239.202220809
Xiong Hu, Lin Ye, Yao Ting. SM9 Identity-Based Encryption Scheme with Equality Test and Cryptographic Reverse Firewalls[J]. Journal of Computer Research and Development, 2024, 61(4): 1070-1084. DOI: 10.7544/issn1000-1239.202220809
Citation: Xiong Hu, Lin Ye, Yao Ting. SM9 Identity-Based Encryption Scheme with Equality Test and Cryptographic Reverse Firewalls[J]. Journal of Computer Research and Development, 2024, 61(4): 1070-1084. DOI: 10.7544/issn1000-1239.202220809
熊虎, 林烨, 姚婷. 支持等式测试及密码逆向防火墙的SM9标识加密方案[J]. 计算机研究与发展, 2024, 61(4): 1070-1084. CSTR: 32373.14.issn1000-1239.202220809
引用本文: 熊虎, 林烨, 姚婷. 支持等式测试及密码逆向防火墙的SM9标识加密方案[J]. 计算机研究与发展, 2024, 61(4): 1070-1084. CSTR: 32373.14.issn1000-1239.202220809
Xiong Hu, Lin Ye, Yao Ting. SM9 Identity-Based Encryption Scheme with Equality Test and Cryptographic Reverse Firewalls[J]. Journal of Computer Research and Development, 2024, 61(4): 1070-1084. CSTR: 32373.14.issn1000-1239.202220809
Citation: Xiong Hu, Lin Ye, Yao Ting. SM9 Identity-Based Encryption Scheme with Equality Test and Cryptographic Reverse Firewalls[J]. Journal of Computer Research and Development, 2024, 61(4): 1070-1084. CSTR: 32373.14.issn1000-1239.202220809

支持等式测试及密码逆向防火墙的SM9标识加密方案

基金项目: 国家重点研发计划项目(2022YFB2701402);厅市共建智能终端四川省重点实验室开放课题(SCITLAB-1019)
详细信息
    作者简介:

    熊虎: 1982年生. 博士,教授,博士生导师. 主要研究方向为密码学和隐私保护计算

    林烨: 2000年生. 硕士研究生. 主要研究方向为公钥密码、区块链

    姚婷: 1997年生. 硕士研究生. 主要研究方向为公钥密码

  • 中图分类号: TP391

SM9 Identity-Based Encryption Scheme with Equality Test and Cryptographic Reverse Firewalls

Funds: This work was supported by the National Key Research and Development Program of China (2022YFB2701402) and the Open Project of Intelligent Terminal Key Laboratory of Sichuan Province (SCITLAB-1019).
More Information
    Author Bio:

    Xiong Hu: born in 1982. PhD, professor, PhD supervisor. His main research interests include cryptography and privacy-preserving computation

    Lin Ye: born in 2000. Master candidate. His main research interests include public key cryptography and blockchain

    Yao Ting: born in 1997. Master candidate. Her main research interest includes public key cryptography

  • 摘要:

    支持等式测试的标识加密(identity-based encryption with equality test, IBEET)体制解决了传统等式测试方案中证书管理的问题,得到了广泛的关注. 但现有的IBEET体制难以抵抗渗透攻击,且都是基于国外密码算法设计,不具有自主知识产权. 基于此,提出一种支持等式测试并具有密码逆向防火墙的SM9标识加密方案(SM9 identity-based encryption scheme with equality test and cryptographic reverse firewalls,SM9-IBEET-CRF). 该方案在用户与云服务器的上行信道间部署密码逆向防火墙(cryptographic reverse firewalls,CRF),对用户发出的信息执行重随机化以达到抵抗渗透攻击的作用. 该方案拓展国密算法SM9至IBEET领域中,提升其运行效率并丰富国密算法在云计算领域的研究. 给出了SM9-IBEET-CRF的形式化定义和安全模型,并在随机预言机模型中考虑2种不同的敌手将此方案在选择密文攻击下的不可区分性与单向性分别形式化地规约到BDH困难假设上. 同时,该方案通过考虑第3种敌手证明CRF的部署为其带来维持功能性、保留安全性以及抵抗渗透性. 实验仿真和分析结果展示了该方案的有效性.

    Abstract:

    The identity-based encryption with equality test (IBEET) scheme solves the problem of certificate management in traditional equality test schemes and gets wide attention. However, the existing IBEET systems are difficult to resist penetration attacks and based on foreign cipher algorithm designs without independent intellectual property rights. To deal with this challenge, we propose a SM9 identity-based encryption scheme with equality test and cryptographic reverse firewalls (SM9-IBEET-CRF). The cipher reverse firewalls (CRF) which are deployed in the upstream channel between users and cloud server can re-randomize the information to protect against penetration attacks. This scheme expands SM9 identity-based encryption algorithm to IBEET, improves its efficiency and enriches the research of secret algorithm in cloud computing. We give the definition of SM9-IBEET-CRF and corresponding security models. In random oracle model, the scheme formalizes the IBE-IND-CCA and IBE-OW-CCA security into the BDH difficulty assumption by considering two different opponents. At the same time, we demonstrate that CRF deployment provides functionality-maintaining, security-preserving and exfiltration-resistant by considering the third opponent. The experimental simulation and analysis results show the effectiveness of the scheme.

  • 深度学习(deep learning,DL)技术已被广泛应用于众多业务场景,研发人员根据业务场景的目标特征构建深度神经网络(deep neural network,DNN)模型,并在特定数据集上反复训练,直至模型精度维持在一个预期的水平,从而达到在业务场景中对目标行为进行预测的目的. 随着业务场景的复杂程度提高,需要结构更加复杂且层数更多的DNN模型来获得更高的精度. 同时,数据集的规模也在不断地增长,导致训练一个DNN模型需要很长时间. 因此,通过构建分布式深度学习(distributed deep learning,DDL)任务,在GPU集群上对DNN模型进行训练,从而加快训练的过程[1],受到了工业界和学术界的广泛关注. 主流的机器学习框架,如PyTorch[2],TensorFlow[3],都对DDL提供了完整的技术支持.

    不同于大型公司或企业所部署的高性能计算中心[4-5]这类高度专业化的平台,考虑到GPU设备的成本和组建难度,众多中小型企业、研究所和高校通常会采购GPU服务器组建一个小规模的GPU集群来处理多个用户的DDL任务,如图1所示. GPU集群的计算资源有限,且各GPU服务器的算力、内部通信方式等处于异构性质,如何对其进行高效的资源调度具有重要意义.

    图  1  GPU集群的应用场景
    Figure  1.  Application scenarios of GPU cluster

    现有的集群调度器,例如Yarn[6],Mesos[7],Kubernetes[8],在对DDL任务调度时表现出资源分配不当、运行效率不高的问题,从而无法满足用户需求. 例如,在某实验室使用Yarn进行资源管理的GPU集群[9]中,同一机架和跨机架分别采用InfiniBand和以太网对GPU设备之间进行互联,由于GPU设备间的带宽差异,不同资源布局方式会导致DNN模型的训练效率不同,该集群上的历史调度日志表明该集群的平均资源利用率仅有50%. 此外,对于集群用户而言,任务截止时间是衡量用户满意度的关键指标,根据文献[10]中的研究得知,在大多数情况下,用户可以接受在截止时间之前完成的任务,而当任务结束时间超过截止时间时,用户对于集群的性能满意度会大幅度下降.

    基于以上分析,本文提出一种面向GPU集群的动态资源调度(dynamic resource scheduling,DRS)方法,以解决异构GPU集群环境下具有截止时间需求的多DNN调度问题. DRS考虑了带宽差异和资源布局对任务训练时间的影响,并结合截止时间需求指导资源方案的生成,其目标在于优化截止时间保证率和集群节点的资源利用率.

    本文的主要贡献包括4个方面:

    1)基于Ring-AllReduce通信架构下的DNN模型迭代特征和GPU设备间的带宽差异,构建了资源-时间模型,以计算不同资源方案下的任务运行时间. 该模型能够较为充分地体现分布式DNN训练的特征以及异构带宽所带来的影响.

    2)根据资源数量、任务运行时间和任务截止时间构建了资源-性能模型,利用该模型筛选多个满足截止时间需求的资源方案并得到最优方案,以提高资源利用效率.

    3)结合资源-时间模型、资源-性能模型以及资源布局,设计了DRS算法,进行DDL任务的资源方案决策. 再基于最近截止时间原则选择调度任务,进行实际资源分配,以最大化截止时间保证率并提高集群节点的资源利用率. 此外,还引入了迁移机制减少动态调度过程中出现的资源碎片.

    4) 在一个包含4个节点,每个节点有4个NVIDIA GeForce RTX 2080 Ti的GPU集群上,使用到达时间服从泊松分布的DDL任务队列,并对DRS进行了对比实验. 结果表明,相较于对比算法, DRS的截止时间保证率提升了39.53%,资源利用率达到了91.27%.

    随着DL技术的发展和大规模应用,许多专家和学者对GPU集群资源调度上的优化指标进行了研究,现有相关工作主要从减少任务完成时间和提升集群性能指标这2方面进行研究.

    为减少任务的完成时间,文献[11]提出了基于GPU集群的任务调度算法Optimus,该算法通过预测训练过程中的模型收敛性,建立性能模型来估计模型的训练速度,并利用贪心策略分配计算资源,最小化任务完成时间. 然而,该工作仅考虑任务自身的完成时间,无法保证用户需求的截止时间. 文献[12]构建了一个任务性能模型,以量化分布式训练中不同并行方式下的模型分区形式和对系统可伸缩性的影响,确定任务的最优资源方案,使得任务的完成时间最小化. 然而,该工作采用静态配置的方式完成资源分配,不能根据集群负载和任务运行情况动态地调整资源分配方案. 文献[13]提出了基于强化学习技术的任务调度器Chic,通过集群调度日志不断优化学习模型和决策任务的最优资源方案. 然而,当集群规模扩展时需要收集新的日志并耗费额外时间重新训练,导致该方法不能很好地扩展. 文献[11-13]的工作均以参数服务器(parameter server,PS)[14]方式作为分布式训练的通信架构,本文则基于Ring-AllReduce[15]通信架构进行研究,它能够减少GPU之间的通信开销.

    文献[16]提出了集群调度框架Gandiva,借助透明迁移和分时作业,使多个DDL任务在不同时刻复用GPU设备,从而提高资源利用率. 然而,该工作以提升资源利用率作为优化目标,而不是最大化截止时间保证率. 文献[17]提出了基于云PS架构的资源配置框架Cynthia,通过资源消耗的性能分析模型预测任务的完成时间,从而提供最优成本收益下的资源分配方案. 然而,该工作关注的是资源成本需求,而不是截止时间需求. 文献[18]则设计了面向服务质量感知的动态调度框架GENIE,它借助负载预测估计任务的完成时间,得到预期运行时间内的最优资源方案,最大化集群服务质量. 然而,该工作限制资源分配为对称形式并遵循整合约束[19]来获得PS架构的最优训练效率[11],导致集群中存在空闲的GPU设备无法立即使用,造成任务排队延迟和资源利用率不足[20].

    现有相关工作能够较为有效地解决GPU集群的资源调度问题,但其中尝试结合资源分配、资源布局和截止时间需求的研究工作较少,对于异构环境下最大化截止时间保证率仍存在一定的局限性. 本文提出的DRS方法,基于Ring-AllReduce通信架构,将资源配置、资源布局和截止时间需求相结合,能够最大化截止时间保证率并提高集群节点的资源利用率.

    本节主要介绍异构GPU集群场景下的动态资源调度模型、基础模型、资源-时间模型、截止时间模型以及资源-性能模型,以及对目标函数进行了描述.

    本文提出的DRS框架如图2所示. 用户提交含有截止时间需求的DDL任务到达GPU集群时,会被放置到一个等待队列中. 调度器在感知等待队列有新的任务加入或者集群上有任务运行结束时,便执行调度算法,选择DDL任务至GPU集群运行. 在此过程中,首先利用时间模型获取任务在不同资源方案下的运行时间;其次利用性能模型指导DDL任务的最优资源方案生成;然后基于最近截止时间原则选择调度任务;最后进行资源分配确定资源方案的物理资源位置,生成含有节点序号和GPU数量的运行方案. 借助机器学习框架API在GPU集群服务器上启动任务运行脚本,完成资源调度过程. 并引入迁移机制减少调度过程中出现的资源碎片.

    图  2  DRS框架
    Figure  2.  DRS framwork

    对于一个GPU集群而言,需要提供自身所包含的节点数量和每个节点上的空闲GPU数量等信息,以供调度算法进行决策. 本文使用R={Nodei(s,cfree)|1iNnode}来表示集群的资源列表,其中,Nnode是集群的节点总数,Nodei(s,cfree)表示节点对象,scfree分别表示节点对象的序号以及空闲GPU数量.

    当任务被提交到集群时,任务本身应包含DNN模型训练的所有必需信息. 本文将一个任务对象表示为t=Pmodel,Pdataset,其中PmodelPdataset分别表示任务对象所携带的模型和数据集属性. 具体来说,Pmodel包含了模型名称、模型结构和模型参数量Nparam等信息; Pdataset包含了数据集名称、数据集大小Sdataset、批次大小Sbatch和迭代回合Nepoch等信息.

    DDL任务的一个资源配置方案则使用Rt={Nodei(s,cused)|1iNnode}来表示,其中,cused表示任务在序号为s的节点上所使用的GPU数量.

    在分布式深度学习场景下,模型训练通常采用分布式数据并行[21]的方式来完成,如图3所示. 分布式数据并行首先通过在多个GPU设备上装载完整的DNN模型副本;然后将数据集均分为多个子数据集并分配到各个GPU设备上,并保证每个GPU设备上所持有的数据集各不相同;最后每个GPU设备独立地对DNN模型副本进行迭代训练,并在每次更新自身DNN模型参数之前与其他设备借助网络通信交换梯度参数,使用平均后的梯度参数对自身DNN模型权重进行更新. 由于增加了DNN模型对于数据集的吞吐率,因而实现了DNN模型训练加速的目的. Ring-AllReduce通信架构能够有效减少参数同步阶段所需要的通信时间,目前已成为主流机器学习框架中分布式训练模块的默认选择. 该架构将参与训练的所有GPU在逻辑上以环形的方式相互连接,每个设备在环上都有各自相邻的其他设备,参数同步时将自身参数发送给右邻居设备,同时接收从左邻居设备发送过来的参数,如图4所示. 同一节点上的GPU设备借助PCIe(peripheral component interconnect express)和QPI(quick path interconnect)进行通信,节点和节点之间则借助InfiniBand进行通信,其中虚线部分便是Ring-AllReduc通信架构在逻辑上所组织的环形结构. 后续的时间、性能模型和对比实验中的DNN模型训练过程都将基于Ring-AllReduce架构进行.

    图  3  分布式数据并行
    Figure  3.  Distributed data parallelism
    图  4  Ring-AllReduce通信架构
    Figure  4.  Ring-AllReduce communication architecture

    采用分布式数据并行进行模型训练的DDL任务的实际运行时间主要由2部分构成:第1部分是在单个GPU设备上的计算时间;第2部分是参数同步阶段所花费的通信时间. 本文将DDL任务在某个资源方案下的实际运行时间Trun表示为:

    Trun=Tstep×Nstep×Nepoch, (1)

    其中Tstep是模型训练一个批次大小的数据集所花费的时间,Nstep是模型在一个迭代回合中可输入的一个批次大小的数据集个数. 随着任务在集群上的运行时间的增加,Nepoch会逐渐减少,直至为0,此时DNN模型训练结束.

    Tstep由单个GPU设备上的计算时间Tcal和设备间的通信时间Tcomm所组成,其计算公式为:

    Tstep=Tcal+Tcomm. (2)

    Nstep会随着资源方案所包含的GPU总数不同而发生变化,数量越多,则Nstep会相应地减少. NstepSdatasetSbatch和GPU总数NGPU在分布式数据并行训练过程中的关系为:

    Nstep=SdatasetSbatch×NGPU, (3)

    其中NGPU由资源方案上每个节点的cused累加得到,由于SdatasetSbatch保持不变,因此NGPU的增加会使得Nstep减少.

    计算时间Tcal和模型计算量以及GPU设备的物理环境有关,通过在真实环境下对模型进行少量迭代来获得真实的Tcal值. 通过将模型放置在单个GPU设备上进行若干批次的迭代,并记录对应的运行时间,由于不涉及多设备通信,因此该运行时间仅包含Tcal. 将单个GPU设备上的计算时间Tcal表示为:

    Tcal=TstepNstep, (4)

    其中Tstep是若干次迭代的运行时间,Nstep是相应的迭代次数. 在计算任务实际运行时间Trun时,对于深度学习这类长时间运行的任务来说,若干次迭代的时间可以被忽略不计.

    如果不存在通信时间,那么任务的运行时间Trun和资源方案所包含的GPU总数NGPU将为反比关系,即随着NGPU上升,Trun将会成比例下降. 而存在通信时间时,则会导致运行效率的下降. 由于GPU设备可能被部署在集群的多个节点上,因而设备间可能涉及跨节点通信. 在本文中,根据文献[15]中的理论,将Ring-AllReduce通信架构下的通信时间Tcomm表示为:

    Tcomm=2×(NGPU1)×NparamNGPU×B, (5)

    其中B是设备之间的带宽速度,如果资源方案所包含的GPU设备都处于同一个节点上,则B就是节点内GPU设备之间的带宽,如果包含的GPU设备跨多个节点,则B就是节点间的网络带宽.

    本文设用户对于任务的截止时间需求由任务到达时间、任务优先级以及任务最大运行时间所组成,其中最大运行时间是任务仅在单个GPU设备上的运行时间. 由于任务结束时间和任务到达集群后的排队时间、集群空闲资源情况以及所使用的资源调度算法有关,对于GPU集群的用户而言,在提交DDL任务时,通过指定任务优先级来表示任务的紧急程度比预估一个合理的截止时间要来得容易. 为了简化该问题,本文根据文献[22]中的研究,定义若干任务优先级,将优先级转换为任务的期望运行时间Texp,其计算公式表示为:

    Texp=α×Trun,α{0.5,1.0,1.5}, (6)

    其中α对应任务优先级,α值越小说明优先级越高,而Trun则是任务在单个GPU设备上的运行时间.

    设任务的到达时间和运行开始时间分别为TarrTstart,则任务的截止时间Tdl和运行结束时间Tend可分别表示为式(7)和式(8):

    Tdl=Tarr+Texp, (7)
    Tend=Tstart+Trun. (8)

    当任务的截止时间Tdl和运行结束时间Tend满足式(9)时,说明任务运行结束时满足用户的截止时间需求.

    TendTdl. (9)

    在分布式深度学习过程中,存在着带宽敏感性[20],即2个NGPU相同的资源方案,会由于GPU设备的布局方式不同而造成任务运行时间上的不同,这是由于设备间的带宽差异所造成的. 当资源方案所持有的GPU设备都位于同一节点上时,其带宽速度为GPU设备之间的直连带宽;而当资源方案所持有的GPU设备位于不同节点上时,其带宽速度则为节点和节点之间的网络带宽. 由式(5)可知,在NGPUNparam不变的情况下,Tcomm随着B的减少而增加,而当设备间的带宽性能不足以支撑分布式训练时,就会出现多机分布式训练的运行时间比单机训练的运行时间要来得长的情况. 将式(2)(3)带入到式(1)中,并要求多机训练的运行时间比单机训练的运行时间要来得短,则可以得到不等式:

    (Tcal+Tcomm)×SdatasetSbatch×NGPU<Tcal×SdatasetSbatch, (10)

    其中不等式号左边部分和右边部分分别表示模型在多机和单机上训练一个迭代回合的时间,化简式(10)可得

    Tcomm<(NGPU1)×Tcal. (11)

    故当模型在进行多机分布式训练时,TcommNGPUTcal只有符合式(11)才能达到模型训练加速的目的.

    为了更好地展示不同资源方案以及带宽差异对任务性能的影响. 在包含4个节点,其中每个节点包含4个NVIDIA GeForce RTX 2080 Ti的异构带宽GPU集群上测量了多个DNN模型在不同GPU数量下的迭代回合时间. 节点内设备借助PCIe和QPI进行互连,其平均带宽速度为10 GBps;节点间设备借助InfiniBand进行互连,其带宽速度为6 GBps. 参与测量的模型信息如表1所示,模型所采用的数据集为CIFAR-100[29],批次大小统一为16,测量结果如图5所示.

    表  1  深度神经网络模型信息
    Table  1.  Deep Neural Network Model Information
    模型参数量模型大小/MB
    AlexNet[23]60.97×106233
    GoogLeNet[24]23.82×10650
    VGG-16[25]138.36×106528
    ResNet-50[26]25.53×10698
    DenseNet-201[27]20.00×10678
    ResNeXt-50[28]25.00×10696
    下载: 导出CSV 
    | 显示表格
    图  5  DNN模型在不同GPU数量下的迭代回合时间
    Figure  5.  Epoch time of the DNN model under different GPU numbers

    图5(a)所示,在异构GPU集群环境下,DNN模型的迭代回合时间总体上是随着GPU数量的增加而减少. 其中,VGG-16在GPU数量为2以及AlexNet在GPU数量为2和4时,其迭代回合时间反而比GPU数量为1时的迭代回合时间还要长. 主要原因是DNN模型属于参数量较多的一类模型,其通信时间比起参数量较少的模型要长,在迭代一个批次的数据时,大部分时间都花费在参数同步阶段. 故当带宽性能存在瓶颈时,对于DNN模型而言,增加少量GPU设备所带来的吞吐率上升并不足以抵消参数同步阶段的通信开销,从而导致多机训练无法达到训练加速的目的. 由于可能出现此类资源方案的运行时间仍能满足截止时间需求的情况,本文方法将采用式(11)对可用资源方案进行筛选,保留可进行有效分布式训练的资源方案,减少出现资源浪费的现象.

    图5(b)(c)分别展示了在上述环境下,VGG-16和ResNet-50在单节点设备和跨节点设备上的迭代回合时间. 可以看出VGG-16这类参数量多的模型对于带宽的敏感性较强,在单节点上可以得到训练加速的效果,而在相同GPU数量的跨节点方案上由于没有完全抵消通信开销而无法得到训练加速的效果. 而ResNet-50这类模型无论在单节点还是跨节点场景下都可以得到训练加速的效果,只是在跨节点时由于带宽性能较低,因而导致迭代回合时间略慢于单节点. 故在异构带宽GPU集群中,调度算法在进行资源分配时应考虑不同模型在单节点和跨节点资源布局方式上的带宽差异,过于追求减少当前任务的完成时间而选择单节点资源方案时,可能会造成后续到达任务在需要单节点资源方案时的排队延迟和资源利用率的下降.

    基于上述分析,为了衡量任务在不同资源方案下的性能,并在满足截止时间需求的多个资源方案中选择运行效率最高的资源方案,充分发挥资源性能. 本文将资源方案的性能公式定义为:

    PRt=TdlTendNGPU. (12)

    式(12)表明,如果一个资源方案使用的资源数目越少且能得到的任务运行结束时间越短,则发挥的资源性能越高.

    本文方法的目标是在一个资源有限且带宽异构的GPU集群上,对于一个到达时间服从泊松分布的DDL任务队列trace={t1,t2,,tM},在集群资源限制和任务截止时间需求上进行权衡,确定每一个DDL任务的执行顺序以及最优资源方案,最大化截止时间保证率. 本文将保证率Rtrace定义为:

    Rtrace=NsatiM, (13)

    其中NsatiM分别表示任务队列中满足截止时间需求的任务数量和队列中的任务总数.

    故将本文方法的目标函数表示为:

    maxRtraces.t.Rt={Nodeji(s,cused)|1iNnode},j{1,2,,M},|Rt|Nnode,cusedGnode. (14)

    其中,Rt表示每个DDL任务的最优资源方案,方案中的节点数量不超过集群节点数量Nnode,每个节点上的GPU数量不超过可用GPU数量Gnode.

    本节介绍了资源方案决策、实际资源分配、资源迁移机制以及DRS算法. DRS算法将遍历等待队列并执行资源方案决策得到每个任务的最优资源方案,再基于最近截止时间原则选择调度任务,并执行实际资源分配. 在集群运行过程中,引入资源迁移机制减少动态调度过程中资源碎片所带来的影响. 本节将分别对资源方案决策、实际资源分配和资源迁移机制进行介绍,并展示DRS算法的伪代码和复杂度分析.

    在资源方案决策部分,首先会为等待队列中的每个任务基于集群空闲资源和资源布局生成可用资源方案列表,然后根据2.5节中的性能模型并结合集群节点负载情况,确定每个任务的最优资源方案. 资源方案决策的步骤有4个:

    1)获取资源列表R,并设cfree>0的资源节点数量为n,资源节点cfree的最大值为max(cfree)及其累加和为sum(cfree),最后初始化一个单节点资源方案列表ls和一个跨节点资源方案列表lm.

    2)生成cused从1~max(cfree)的资源方案Rt添加到ls中,如果n>1,则再生成cused从1~sum(cfree)的资源方案Rt添加到lm中. 根据式(1)和式(8)计算lslmRtTrunTend,并根据式(11)过滤部分资源方案Rt.

    3)根据式(12)得到lsPRt0PRt最大时的资源方案Rt,设为单节点预期方案Rset;以及lsTend>TdlTend最小的资源方案Rt,设为单节点非预期方案¯Rset. 按照相同的思路从lm中得到跨节点预期方案Rmet和跨节点非预期方案¯Rmet. 注意其中RsetRmet可能不存在.

    4)如果Rmet存在且集群存在0<cfree<NGPU的资源节点,说明当前任务存在跨节点资源方案可以利用局部资源并在Tdl内结束运行,此时设最优资源方案Rt=Rmet. 如果条件不成立但Rset存在,则设Rt=Rset;如果Rset仍不存在,说明集群当前空闲资源无法令当前任务在Tdl内结束运行,则先后对¯Rmet¯Rset以相同的思路选择其一作为当前任务的Rt.

    在实际资源分配部分,将根据任务的最优资源方案Rt执行实际资源节点分配过程. 其步骤有3个:

    1)获取资源列表R并按照节点的cfree升序排序.

    2)如果Rt为单节点资源方案. 遍历R,找到cfreeNGPU的资源节点Node(s,cfree),从该节点扣除NGPU个GPU设备,将Node(s,NGPU)添加到Rt中,结束遍历.

    3)如果Rt为跨节点资源方案. 设Nused=NGPU,遍历R,找到cfree>0的资源节点Node(s,cfree),从该节点和Nused分别扣除min{cfree,Nused}个GPU设备,将Node(s,min{cfree,NGPU})添加到Rt中,以此类推,直到Nused=0,结束遍历.

    由于无法预知将来提交到集群的任务情况,动态调度方法在根据当前资源做出资源方案抉择时就可能出现仅有的跨节点资源被当前任务所使用,在一段时间后和其他任务运行结束后释放的资源形成资源碎片的场景. 结合2.5节可知,资源碎片会造成单个资源节点的高性能无法被单个模型充分利用.

    DDL任务的特性允许中途停止模型训练过程并在之后任意时间点重启,比如利用PyTorch框架可以通过参数设置设定模型权重文件的保存时机,该权重文件会保留目前已经训练好的参数信息和迭代次数,之后可以基于该权重文件在先前已经训练的基础上继续后续的训练过程. 基于DDL任务的这项特性,本文通过引入资源迁移机制来减少资源碎片所带来的影响,尽可能发挥单个节点的性能优势. 资源迁移的过程如图6(a)(b)所示,其中阴影部分表示GPU设备正处于运行状态,空白部分则处于空闲状态,虚线框部分为某个运行任务的实际资源配置.

    图  6  资源迁移
    Figure  6.  Resource migration

    在每次执行任务调度之前,DRS算法将分析已运行任务情况,决定是否进行资源迁移过程. 将资源列表中处于运行状态但运行设备数量不超过自身总设备数量一半的节点定义为可迁移节点Nodem(s,cfree),当Nodem(s,cfree)数量超过Nnode的一半时,暂停全体运行任务并执行资源迁移过程. 其步骤有2个:

    1) 初始化任务列表lslm. 遍历运行任务队列Qrun,将原处于单节点运行的任务t添加到ls中,将原处于跨节点运行的任务t添加到lm中.

    2)将lslm中的任务t根据RtNGPU降序排序. 首先遍历ls,对其中的任务t执行3.2节中的实际资源分配过程,然后遍历lm,对其中的任务t同样执行3.2节中的实际资源分配过程.

    每当有新任务到达且GPU集群存在空闲资源或有任务运行结束时,调度器会根据调度算法选择新的任务运行. 算法接收等待任务队列Qwait、资源列表R和当前时间Tcurr作为输入参数,其中Tcurr以单位时间增加,当DDL任务的到达时间Tarr=Tcurr时,将任务添加到队列Qwait中,此时会根据式(7)预先计算任务的截止时间Tdl. 本文将DRS算法的具体步骤定义为:1)根据集群资源的负载情况,尝试执行3.3节的资源迁移过程. 2)遍历等待队列Qwait,对任务t执行3.1节的资源方案决策得到t的最优资源方案Rt. 3)初始化预期任务队列Qexp和非预期任务队列¯Qexp,如果任务的运行结束时间Tend和截止时间Tdl满足式(9),则将任务t添加到队列Qexp中,反之则添加到队列¯Qexp中. 将队列Qexp中的任务t根据TdlTend的值升序排序,此时排在队头的任务t在资源方案Rt下的Tend越接近Tdl. 将队列¯Qexp中的任务t根据Tend的值升序排序,排在队头的任务t在资源方案Rt下的Tend越接近Tdl. 注意队列Qexp可能为空. 4)如果队列Qexp不为空,则选择排头任务t作为调度任务t,否则选择队列¯Qexp中的排头任务t作为调度任务t,并对t执行3.2节的实际资源分配过程.

    本文将DRS算法的伪代码表示为:

    算法1. DRS算法.

    输入:等待任务队列Qwait、资源列表R、当前时间Tcurr

    输出:调度结果.

    ① 资源迁移;

    ② 初始化预期任务队列Qexp和非预期任务队列    ¯Qexp

    ③ for i=1 to |Qwait| do

    ④ 对任务ti执行资源方案决策得到最优资源     方案Rt

    ⑤  if TendTdl then

    ⑥  将ti添加到队列Qexp中;

    ⑦  else

    ⑧  将ti添加到队列¯Qexp中;

    ⑨  end if

    ⑩ end for

    ⑪ if |Qexp|1 then

    ⑫ 对Qexp根据任务tTdlTend的值升序排序,     选择队头任务t作为t

    ⑬ else

    ⑭ 对¯Qexp根据任务tTend的值升序排序,选择     队头任务t作为t

    ⑮ 对任务t执行实际资源分配;

    ⑯ end if

    ⑰ return.

    在本文所提出的DRS算法伪代码流程中,资源方案决策部分的最坏时间复杂度为O(Nnode×Gnode),即所有节点皆处于空闲状态时,最多可以得到Gnode个单节点资源方案和Nnode×Gnode个跨节点资源方案. 而实际资源分配部分的最坏时间复杂度为O(Nnode),即所有节点皆处于非满载状态时,可以对Nnode个资源节点进行资源分配过程. 资源迁移机制部分的最坏时间复杂度为O(|Qrun|×Nnode),即对|Qrun|个运行任务进行Nnode个资源节点的分配过程. 在任务决策部分,其最坏时间复杂度为O(|Qwait|×Nnode×Gnode),即对|Qwait|个等待任务最多执行Nnode×Gnode个跨节点资源方案下的最优资源方案选择过程.

    执行包含资源迁移过程的DRS算法时间复杂度为O(nN)+O(mNG)=O(N(n+mG)),其中nmNG分别表示运行任务数量、等待任务数量、节点数量和节点上的最大可用GPU设备数量.

    本节首先在异构带宽GPU集群上对DRS和多种调度算法进行对比;研究了任务抵达率、节点数量、紧急任务数量、任务接收时间和带宽性能对于各个调度算法的性能影响;使用截止时间保证率、平均等待时间和平均完成时间作为性能指标. 然后还对比了各个算法在运行过程中集群总体节点的资源利用率. 最后分别介绍实验准备和各个对比实验,并对实验结果进行分析.

    本文的GPU集群包含4个节点,每个节点有4个NVIDIA GeForce RTX 2080 Ti,节点内的GPU通过PCIe和QPI进行互连,其平均带宽速度为10 GBps;节点间设备借助InfiniBand进行互连,其带宽速度为6 GBps,因此GPU之间的通信具有异构性质. GPU服务器运行Ubuntu 18.04操作系统和PyTorch 1.7.1框架,其分布式训练API默认采用分布式数据并行的方式进行模型训练,并采用NCCL(NVIDIA collective communication library)通信库[30]实现Ring-AllReduce通信架构.

    为了提升DDL任务的多样性,在DNN模型方面除了采用表1当中的图像分类模型,还引入了用于动作识别场景下的TSN[31], R(2+1)D[32], TSM[33], SlowOnly[34]等模型,图像分类模型依旧采用CIFAR-100数据集,而动作识别模型则采用UCF-101[35]数据集. DDL任务可携带的工作负载的具体信息如表2所示,其中计算时间是模型在上述集群单个GPU设备上训练一个迭代回合的时间.

    表  2  工作负载
    Table  2.  Workloads
    模型模型类别参数量数据集批次大小迭代回合计算时间/s
    AlexNet图像分类60.97×106CIFAR-1001620031.25
    GoogLeNet图像分类23.82×106CIFAR-10016200199.63
    VGG-16图像分类138.36×106CIFAR-10016200139.53
    ResNet-50图像分类25.53×106CIFAR-10016200157.47
    DenseNet-201图像分类20.00×106CIFAR-10016200437.88
    ResNeXt-50图像分类25.00×106CIFAR-10016200347.97
    TSN动作识别25.53×106UCF-101880153.98
    R(2+1)D动作识别21.79×106UCF-1018180511.28
    TSM动作识别25.53×106UCF-101850421.05
    SlowOnly动作识别25.53×106UCF-1018256523.31
    下载: 导出CSV 
    | 显示表格

    在随机生成到达时间Tarr符合泊松分布的任务队列时,本文设定集群默认的任务接收时间范围为0~24 h. 默认的任务抵达率λ=4,即平均每小时有4个任务到达集群. 将任务队列的任务优先级0.5,1,1.5的默认比例分别设置为10%,30%,60%.

    除DRS外,本文还引入了常见的调度策略和具有代表性的GPU集群资源调度算法进行对比.

    1)EDF(earliest deadline first)[36]. 从等待队列中选择截止时间最小的任务并使用整体GPU资源进行资源分配.

    2)FIFO(first in first out). 从等待任务队列中选择到达时间最小的任务并使用整体GPU资源进行资源分配.

    3)Themis[37]. 将GPU资源根据完成时间公平性分配给多个等待任务并将任务一次性调度至集群运行,尽可能保证任务之间具有相近的完成时间.

    4)NoRM(no resource migration). 为了验证DRS引入迁移机制的有效性,将DRS中的迁移机制部分移除之后,再与DRS比较各种性能指标.

    本文方法的目标在于最大化截止时间保证率Rtrace,因此将Rtrace作为主要性能指标. 除此之外,任务平均等待时间Twait和任务平均完成时间Tcomp同样是重要的性能指标[38]. 后续实验将从RtraceTwaitTcomp这3个指标对各个调度算法进行分析比较,Rtrace依据式(13)进行计算,TwaitTcomp则各自根据Twait=(TstartTarr)/MTcomp=(TendTarr)/M计算得到,其中M是任务队列中的任务总数.

    本节研究了任务抵达率λ对于各个调度算法性能的影响. 在保持任务队列其他参数不变和控制λ=2,4,6,8,10变化的基础上,进行了对比实验,实验结果如图7所示.

    图  7  在不同抵达率下的算法性能
    Figure  7.  Algorithm performance at different arrival rates

    图7(a)可知,由于资源有限,所有算法的Rtrace随着λ的增大而减少,其中DRS和NoRM的表现要优于其他算法. EDF由于只关心任务的截止时间需求,没有考虑实际资源配置对于任务运行时间的影响,会导致在任务数量较多时,运行时间超过截止时间的等待任务比未超过截止时间的任务优先得到了调度. FIFO仅考虑了任务的次序而忽视了截止时间需求,当任务队列中预先到达的都是一些长时间任务时,则后续到达的任务在短时间内都无法得到资源,导致超过截止时间的任务都无法运行. Themis仅考虑了资源配置对任务完成时间公平性的影响,导致在调度过程中,资源优先倾向后续到达的任务,先前到达的任务则无法得到足够的资源在截止时间内结束运行. 本文所设计的DRS算法考虑了任务的截止时间需求和资源方案性能,实现了截止时间保证率和资源利用之间的权衡,在不同λ下的Rtrace相较于EDF,FIFO,Themis,NoRM能够分别提升39.53%,41.41%,45.49%,3.11%的性能. DRS通过引入迁移机制减少了动态调度过程中资源碎片带来的影响,性能上要略优于NoRM,证明了引入资源迁移机制的有效性.

    图7(b),图7(c)可知,任务的TwaitTcomp普遍随着λ的增大而增大,由于资源的有限性和任务的随机性,因此在部分λ值之间,TwaitTcomp会有下降的趋势,其中DRS的性能表现最好. DRS基于资源方案性能为任务分配合适的设备数量,减少资源浪费,将其余资源保留给后续到达的任务,使得后续任务能够被及时响应,同时也为任务基于现有资源确定了运行效率最高的资源方案,故在TwaitTcomp指标表现上能够优于其他算法.

    本节研究了节点数量Nnode对于各个调度算法性能的影响. 在保持任务队列其他参数不变和控制Nnode=2,3,4变化的基础上,进行了对比实验,实验结果如图8所示.

    图  8  在不同节点数量下的算法性能
    Figure  8.  Algorithm performance under different numbers of node

    图8可知,随着Nnode的增加,各个算法在RtraceTwaitTcomp指标上都得到了优化,原因在于节点数量的增加使得各个算法可以为更多的任务执行资源调度. EDF,FIFO,Themis在不同集群规模下依旧基于任务自身指标确定任务执行顺序,而DRS能够在不同集群规模下基于集群资源情况和整体任务截止时间需求动态调整等待任务的执行顺序,以最大化Rtrace为前提选择被调度任务,故其性能表现最佳. 另外,图8(a)中,DRS和NoRM的性能几乎一致,原因在于资源数量对于λ=4的任务队列来说远远不够,且队列中的任务运行时间皆较长,故在集群运行过程中,资源节点几乎都处于满载状态,资源碎片出现的频率较低,减少了DRS执行资源迁移的次数.

    本节研究了紧急任务数量比例对于各个调度算法性能的影响. 在保持任务队列其他参数不变和控制任务优先级α=0.5时,进行了对比实验,实验结果如图9所示.

    图  9  在不同紧急任务数量下的算法性能
    Figure  9.  Algorithm performance under different numbers of urgent task

    图9(a)可知,随着α=0.5的任务数量比例增加,DRS和NoRM在Rtrace指标上都有所下降,原因在于部分任务的截止时间缩短,需要更多的资源来满足这部分任务的截止时间需求,但是受到集群资源的限制,无法满足所有任务的截止时间需求,对比其他算法DRS表现依旧出色. 由图9(b)(c)可知,FIFO和Themis在不同优先级比例下的TwaitTcomp完全不变,原因在于二者并没有考虑任务的截止时间需求,因此紧急任务比例的变化没有影响到算法的调度决策. 而EDF虽基于截止时间需求决策调度顺序,但是没有结合资源配置进行考虑,依旧使用全体资源作为任务的资源配置,因此在TwaitTcomp指标上仅有细微的变化.

    本节研究了任务接收时间对于各个调度算法性能的影响. 在保持任务队列其他参数不变和控制任务接收时间上限在12,24,48,72 h变化的基础上,进行了对比实验,实验结果如图10所示.

    图  10  在不同接收时间下的算法性能
    Figure  10.  Algorithm performance at different reception time

    图10可知,随着任务接收时间的增加,各个算法在RtraceTwaitTcomp指标上性能逐渐下降,这是因为对于本文集群而言,长时间接收深度学习这类运行时间普遍较长的任务,由于资源的有限性,会导致等待队列中出现任务堆积的现象而导致性能下降. 可以注意到当任务接收时间范围在[0,12]时,EDF和FIFO在Rtrace指标上都有不错的性能表现,原因在于此时的资源数量对于任务队列来说,足够完成大多数任务的调度安排,并且使用整体资源能够获得最短的运行时间,故在Tcomp指标上二者性能和DRS相近,但是随着等待任务的堆积,没有合理进行资源配置的EDF和FIFO的总体性能不如DRS,DRS在长时间任务接收中会根据等待任务情况和集群负载动态调整任务的执行顺序,故DRS对集群长时间接收任务的场景适应性最好.

    本节研究带宽性能对于各个调度算法性能的影响. 保持任务队列其他参数不变,并控制工作负载中为AlexNet,VGG-16这类模型占比由表2的1/5提升为1/3生成限定任务队列. 将限定任务队列和随机任务队列进行了对比实验,实验结果如图11所示.

    图  11  在不同任务队列下的算法性能
    Figure  11.  Algorithm performance under different task queues

    图11(a)可知,EDF和FIFO在限定任务队列上性能表现不如随机任务队列. 通过2.5节可以了解到对于AlexNet,VGG-16这类参数量大但计算时间少的模型来说,在此时的集群环境下,GPU数量的大幅提升对于这类模型的训练效率来说没有其他模型来得明显. EDF考虑了截止时间,对于限定任务队列来说,1/3比例任务的截止时间都较小,故EDF提前了这部分任务的执行顺序,但也导致了其他任务的延后训练. FIFO没有改变任务的执行顺序,但由于任务性能提升不明显,故这部分任务在到达集群后没有及时得到调度,即使分配了全体资源也无法在截止时间内结束训练. Themis,NoRM,DRS在限定任务队列的性能表现上都比随机任务队列要好,其原因在于限定任务属于短时间任务,分配适当数量的资源并不会延长过多的运行时间,因此能尽快释放资源到其他任务以满足截止时间需求. 由图11(b)(c)可知,Themis,NoRM,DRS在限定任务队列上的性能都比随机任务队列优化明显,也是由于同样的原因.

    DRS在资源方案选择上会过滤无效的资源方案,并考虑单节点和跨节点之间的带宽差异,优先选择能够利用局部资源运行的跨节点资源方案,为后续需要单节点完整性能的任务提供条件,特别是AlexNet和VGG-16这类工作负载,因此DRS在限定任务队列上的综合表现最好.

    本节对比了在各个调度算法的决策下集群总体节点的资源利用率,即单位时间内处于运行状态的设备数量和总数量的比值. 节点的资源利用率越高,表明动态调度过程中出现的资源碎片越少,节点性能发挥越充分. 实验结果如图12所示,本文记录了FIFO,Themis,NoRM,DRS在默认任务队列下的性能表现.

    图  12  集群节点的资源利用率
    Figure  12.  Resource utilization rates in cluster nodes

    图12(a)可知,FIFO几乎全程保持了最高的资源利用率,原因在于FIFO每次调度时都为任务分配全体资源,并且任务数量能够保证每次调度时都存在等待任务,此结果和原因对于EDF也同样适用. 由图12(b)可知,Themis出现了间歇性的最高资源利用率,原因在于资源配置对于不同工作负载的性能影响不会完全相同,当一次性调度多个作业时,即使追求完成时间公平性,仍会出现部分任务的运行时间要远大于其他任务的时间,导致较早结束运行的任务所释放的资源出现了空闲现象. 而由图12(c)(d)可知,NoRM和DRS仅在集群运行过程的后半段出现了资源利用率逐渐下降的情况,这是因为后续到达集群的任务较少时,仍选择性能最高的资源方案,没有完全利用剩余的空闲资源,而DRS因为额外引入了资源迁移机制,因此在集群运行的后半段过程中下降趋势相比NoRM更加平缓,二者在默认任务队列上的总体节点资源利用率分别达到了79.13%和91.27%.

    本文针对异构带宽GPU集群上对于具有截止时间需求的DDL任务的资源调度问题,提出了一种面向GPU集群的动态资源调度方法DRS. 通过资源-时间模型得到不同资源方案下的任务运行时间,然后通过资源-性能模型对资源方案进行性能分析并选择最优的资源方案,将资源分配、资源布局和截止时间需求相结合,最大化集群的截止时间保证率. 另外,还引入了迁移机制来减少动态调度过程中产生的资源碎片. 在实际的GPU集群上进行的对比实验证明DRS具有可行性和有效性. 在未来工作中,我们将对DRS进一步优化,考虑集群设备的能耗问题以及设备故障后的容错问题,尝试结合集群调度日志研究资源伸缩的可能性.

    作者贡献声明:傅懋钟实施实验方案和论文撰写;胡海洋负责论文的修改;李忠金负责论文方案的提出和论文修改.

  • 图  1   LEAK示意图

    Figure  1.   Illustration of LEAK

    图  2   SM9-IBEET-CRF示意图

    Figure  2.   Illustration of SM9-IBEET-CRF

    图  3   不同方案的计算开销对比

    Figure  3.   Computation overhead comparison for different schemes

    图  4   不同方案通信开销对比

    Figure  4.   Comparison of communication overhead of different schemes

    表  1   符号定义

    Table  1   Symbols Definition

    符号 含义
    |G1| G1中元素的大小
    |G2| G2中元素的大小
    |GT| GT中元素的大小
    |G| 对称配对G中元素的大小
    |GT| 对称配对GT中元素的大小
    |Zp| Zp中元素的大小
    |PK| 公钥长度
    |CL| 密文长度
    |TD| 陷门长度
    Tp 1次双线性配对运算
    Tx1 1次G1G2上的幂运算
    Tx2 1次GT上的幂运算
    下载: 导出CSV

    表  2   密码操作的执行时间

    Table  2   Execution Time of Cryptographic Operation

    具体操作 计算时间/ms
    TP 7.5954
    Tx1 3.8915
    Tx2 1.2357
    下载: 导出CSV

    表  3   不同方案的计算开销对比

    Table  3   Computation Cost Comparison of Different Schemes

    方案 加密 解密 等式测试/搜索
    FS-PKSE[4] 6Tx1 5Tp+3Tx2
    PAEKS[6] Tp+4Tx1 4Tp+Tx2
    PKEET-FA[11] 6Tx1 5Tx1 2Tp+6Tx1
    CLE-PKEET[13] 4Tp+5Tx1 2TP+2Tx1 4Tp
    HSC-ET[15] 5Tx1+2Tx2 3Tp+Tx2 4Tp+4Tx2
    IBEET[17] 2Tp+6Tx1 2Tp+2Tx1 4Tp
    本文方案 2Tp+5Tx1+2Tx2 Tp 4Tp
    下载: 导出CSV

    表  4   不同方案的通信开销与功能对比

    Table  4   Comparison of Communication Overhead and Function of Different Schemes

    方案 |PK| |CL| |TD| 等式测试 标识加密 抗渗透攻击 支持国密算法
    FS-PKSE[4] 4|G| 5|G|+|Zp| 5|G|+|Zp| × × × ×
    PAEKS[6] |G| 2|G| |G| × × × ×
    PKEET-FA[11] 3|G| 5|G|+|Zp| |Zp| × × ×
    CLE-PKEET[13] 2|G| 3|G|+|Zp| |G| × × ×
    HSC-ET[15] |G| 3|G|+2|Zp| |G| × ×
    IBEET[17] 2|G| 4|G|+|Zp| |G| × ×
    本文方案 |G1| 3|G1|+|G2|+2|Zp| |G2|
    注:“√”表示存在,“×”表示不存在.
    下载: 导出CSV
  • [1]

    Armbrust M, Fox A, Griffith R, et al. A view of cloud computing[J]. Communications of the ACM, 2010, 53(4): 50−58 doi: 10.1145/1721654.1721672

    [2]

    Wang Wei, Xu Peng, Liu Dongli, et al. Lightweighted secure searching over public-key ciphertexts for edge-cloud-assisted industrial IoT devices[J]. IEEE Transactions on Industrial Informatics, 2020, 16(6): 4221−4230 doi: 10.1109/TII.2019.2950295

    [3]

    Boneh D, Di Crescenzo G, Ostrovsky R, et al. Public key encryption with keyword search[C] //Proc of the 2004 Cryptology-EUROCRYPT. Berlin: Springer, 2004: 506−522

    [4]

    Zeng Ming, Qian Haifeng, Chen Jie, et al. Forward secure public key encryption with keyword search for outsourced cloud storage[J]. IEEE Transactions on Cloud Computing, 2022, 10(1): 426−438 doi: 10.1109/TCC.2019.2944367

    [5]

    Xu Peng, Susilo W, Wang Wei, et al. ROSE: Robust searchable encryption with forward and backward security[J]. IEEE Transactions on Information Forensics and Security, 2022, 17: 1115−1130 doi: 10.1109/TIFS.2022.3155977

    [6]

    Huang Qiong, Li Hongbo. An efficient public-key searchable encryption scheme secure against inside keyword guessing attacks[J]. Information Sciences, 2017, 403: 1−14

    [7]

    He Kun, Chen Jing, Zhou Qinxi, et al. Secure dynamic searchable symmetric encryption with constant client storage cost[J]. IEEE Transactions on Information Forensics and Security, 2021, 16: 1538−1549 doi: 10.1109/TIFS.2020.3033412

    [8]

    Xu Peng, Wu Qianhong, Wang Wei, et al. Generating searchable public-key ciphertexts with hidden structures for fast keyword search[J]. IEEE Transactions on Information Forensics and Security, 2015, 10(9): 1993−2006 doi: 10.1109/TIFS.2015.2442220

    [9]

    Yang Guomin, Tan C, Huang Qiong, et al. Probabilistic public key encryption with equality test[C] //Proc of the 2010 Cryptology-CT-RSA: The Cryptographers’Track at the RSA Conf 2010. Berlin: Springer, 2010: 119−131

    [10]

    Tang Qiang. Public key encryption supporting plaintext equality test and user‐specified authorization[J]. Security and Communication Networks, 2012, 5(12): 1351−1362 doi: 10.1002/sec.418

    [11]

    Ma Sha, Huang Qiong, Zhang Mingwu, et al. Efficient public key encryption with equality test supporting flexible authorization[J]. IEEE Transactions on Information Forensics and Security, 2015, 10(3): 458−470 doi: 10.1109/TIFS.2014.2378592

    [12]

    Lee H T, Ling S, Seo J H, et al. Semi-generic construction of public key encryption and identity-based encryption with equality test[J]. Information Sciences, 2016, 373: 419−440 doi: 10.1016/j.ins.2016.09.013

    [13]

    Qu Haipeng, Yan Zhen, Lin Xijun, et al. Certificateless public key encryption with equality test[J]. Information Sciences, 2018, 462: 76−92 doi: 10.1016/j.ins.2018.06.025

    [14]

    Wang Yujue, Pang H, Deng R H, et al. Securing messaging services through efficient signcryption with designated equality test[J]. Information Sciences, 2019, 490: 146−165 doi: 10.1016/j.ins.2019.03.039

    [15]

    Xiong Hu, Zhao Yanan, Hou Yingzhe, et al. Heterogeneous signcryption with equality test for IIOT environment[J]. IEEE Internet of Things Journal, 2021, 8(21): 16142−16152 doi: 10.1109/JIOT.2020.3008955

    [16]

    Alrawais A, Alhothaily A, Cheng Xiuzhen, et al. SecureGuard: A certificate validation system in public key infrastructure[J]. IEEE Transactions on Vehicular Technology, 2018, 67(6): 5399−5408 doi: 10.1109/TVT.2018.2805700

    [17]

    Ma Sha. Identity-based encryption with outsourced equality test in cloud computing[J]. Information Sciences, 2016, 328: 389−402 doi: 10.1016/j.ins.2015.08.053

    [18]

    Shamir A. Identity-based cryptosystems and signature schemes[C] //Proc of the 1984 Cryptology-CRYPTO. Berlin: Springer, 1984: 47−53

    [19]

    Patsakis C, Charemis A, Papageorgiou A, et al. The market's response toward privacy and mass surveillance: The Snowden aftermath[J]. Computers & Security, 2018, 73: 194−206

    [20]

    Bellare M, Paterson K G, Rogaway P. Security of symmetric encryption against mass surveillance[C/OL] //Proc of the 2014 Cryptology-CRYPTO. Berlin: Springer, 2014[2023-01-01].https://link.springer.com/chapter/10.1007/978-3-662-44371-2_1

    [21]

    Mironov I, Stephens-Davidowitz N. Cryptographic reverse firewalls[C] //Proc of the 2015 Cryptology-EUROCRYPT. Berlin: Springer, 2015: 657−686

    [22]

    Dodis Y, Mironov I, Stephens-Davidowitz N. Message transmission with reverse firewalls-secure communication on corrupted machines[G] //LNCS 9814: Proc of the 2016 Cryptology-CRYPTO. Berlin: Springer, 2016: 341–372

    [23]

    Ma Hui, Zhang Rui, Yang Guomin. Concessive online/offline attribute based encryption with cryptographic reverse firewalls-secure and efficient fine-grained access control on corrupted machines[C] //Proc of the 2018 European Symp on Research in Computer Security. Berlin: Springer, 2018: 507−526

    [24]

    Chen Rongmao, Mu Yi, Yang Guomin, et al. Cryptographic reverse firewall via malleable smooth projective Hash functions[C] //Proc of the 2016 Cryptology-ASIACRYPT. Berlin: Springer, 2016: 844−876

    [25]

    Tang Qiang. Towards public key encryption scheme supporting equality test with fine-grained authorization[C] //Proc of the 16th Australasian Conf on Information Security and Privacy. Berlin: Springer, 2011: 389−406

    [26]

    Tang Qiang. Public key encryption schemes supporting equality test with authorisation of different granularity[J]. International Journal of Applied Cryptography, 2012, 2(4): 304−321 doi: 10.1504/IJACT.2012.048079

    [27]

    Zhou Yuyang, Guan Yuanfeng, Li Fagen, et al. Cryptographic reverse firewalls for identity-based encryption[G] // CCIS 1105: Proc of the 2nd Int Conf on Frontiers in Cyber Security. Berlin: Springer, 2019: 36–52

    [28]

    Boneh D, Franklin M. Identity-based encryption from the weil pairing[C] //Proc of the 2001 Cryptology-CRYPTO. Berlin: Springer, 2001: 213–229

    [29]

    Boyen X, Mei Qixiang, Waters B, Direct chosen ciphertext security from identity-based techniques[C] //Proc of the 12th ACM Conf on Computer and Communications Security. New York: ACM, 2005: 320–329

    [30]

    Boneh D, Boyen X. Short signatures without random oracles[C] //Proc of the 2004 Cryptology-EUROCRYPT. Berlin: Springer, 2004: 56–73

    [31]

    Crossbow. MICAz datasheet[DB/OL]. [2023-01-01]. http://bullseye.xbow.com:81/Products/Product_pdf_files/Wireless_pdf/MICAz_Datasheet.pdf

    [32]

    Moteiv Corporation. Tmote Sky datasheet[DB/OL]. [2023-01-01]. www. moteiv. com/ products/docs/tmote-sky-datasheet. pdf

    [33]

    Shim K A. BASIS: A practical multi-user broadcast authentication scheme in wireless sensor networks[J]. IEEE Transactions on Information Forensics and Security, 2017, 12(7): 1545−1554 doi: 10.1109/TIFS.2017.2668062

  • 期刊类型引用(1)

    1. 彭兰. 与数字人共存将带来什么?. 新闻界. 2024(09): 4-14 . 百度学术

    其他类型引用(0)

图(4)  /  表(4)
计量
  • 文章访问数:  235
  • HTML全文浏览量:  49
  • PDF下载量:  88
  • 被引次数: 1
出版历程
  • 收稿日期:  2022-09-13
  • 修回日期:  2023-05-21
  • 网络出版日期:  2023-11-13
  • 刊出日期:  2024-04-05

目录

/

返回文章
返回