Processing math: 7%
  • 中国精品科技期刊
  • CCF推荐A类中文期刊
  • 计算领域高质量科技期刊T1类
高级检索

基于区块链和动态评估的隐私保护联邦学习模型

刘炜, 唐琮轲, 马杰, 田钊, 王琦, 佘维

刘炜, 唐琮轲, 马杰, 田钊, 王琦, 佘维. 基于区块链和动态评估的隐私保护联邦学习模型[J]. 计算机研究与发展, 2023, 60(11): 2583-2593. DOI: 10.7544/issn1000-1239.202330269
引用本文: 刘炜, 唐琮轲, 马杰, 田钊, 王琦, 佘维. 基于区块链和动态评估的隐私保护联邦学习模型[J]. 计算机研究与发展, 2023, 60(11): 2583-2593. DOI: 10.7544/issn1000-1239.202330269
Liu Wei, Tang Congke, Ma Jie, Tian Zhao, Wang Qi, She Wei. A Federated Learning Model for Privacy Protection Based on Blockchain and Dynamic Evaluation[J]. Journal of Computer Research and Development, 2023, 60(11): 2583-2593. DOI: 10.7544/issn1000-1239.202330269
Citation: Liu Wei, Tang Congke, Ma Jie, Tian Zhao, Wang Qi, She Wei. A Federated Learning Model for Privacy Protection Based on Blockchain and Dynamic Evaluation[J]. Journal of Computer Research and Development, 2023, 60(11): 2583-2593. DOI: 10.7544/issn1000-1239.202330269
刘炜, 唐琮轲, 马杰, 田钊, 王琦, 佘维. 基于区块链和动态评估的隐私保护联邦学习模型[J]. 计算机研究与发展, 2023, 60(11): 2583-2593. CSTR: 32373.14.issn1000-1239.202330269
引用本文: 刘炜, 唐琮轲, 马杰, 田钊, 王琦, 佘维. 基于区块链和动态评估的隐私保护联邦学习模型[J]. 计算机研究与发展, 2023, 60(11): 2583-2593. CSTR: 32373.14.issn1000-1239.202330269
Liu Wei, Tang Congke, Ma Jie, Tian Zhao, Wang Qi, She Wei. A Federated Learning Model for Privacy Protection Based on Blockchain and Dynamic Evaluation[J]. Journal of Computer Research and Development, 2023, 60(11): 2583-2593. CSTR: 32373.14.issn1000-1239.202330269
Citation: Liu Wei, Tang Congke, Ma Jie, Tian Zhao, Wang Qi, She Wei. A Federated Learning Model for Privacy Protection Based on Blockchain and Dynamic Evaluation[J]. Journal of Computer Research and Development, 2023, 60(11): 2583-2593. CSTR: 32373.14.issn1000-1239.202330269

基于区块链和动态评估的隐私保护联邦学习模型

基金项目: 河南省高校科技创新人才支持计划(21HASTIT031);河南省重大公益专项(201300210300);河南省科技攻关项目(212102310039);河南省网络密码技术重点实验室研究课题(LNCT2022-A04)
详细信息
    作者简介:

    刘炜: 1981年生. 博士,副教授,博生生导师. 主要研究方向为区块链技术、隐私保护、智慧医疗

    唐琮轲: 1999年生. 硕士. 主要研究方向为区块链技术、联邦学习

    马杰: 1997年生. 硕士. 主要研究方向为区块链技术、联邦学习

    田钊: 1985年生. 博士,副教授,硕士生导师. 主要研究方向为区块链技术、信息安全、智能交通

    王琦: 1986年生. 博士,硕士生导师. 主要研究方向为区块链技术、机器学习、大数据技术

    佘维: 1977年生. 博士,教授,博士生导师. 主要研究方向为区块链技术、能源互联网、互联网医疗

    通讯作者:

    佘维(wshe@zzu.edu.cn

  • 中图分类号: TP391

A Federated Learning Model for Privacy Protection Based on Blockchain and Dynamic Evaluation

Funds: This work was supported by the Program for Science&Technology Innovation Talents in Universities of Henan Province (21HASTIT031), the Major Public Welfare Project of Henan Province (201300210300), the Scientific and Technological Research Project in Henan Province (212102310039), and the Project of Henan Key Laboratory of Network Cryptography Technology (LNCT2022-A04).
More Information
    Author Bio:

    Liu Wei: born in 1981. PhD, associate professor, PhD supervisor. His main research interests include blockchain technology, privacy protection, and smart healthcare

    Tang Congke: born in 1999. Master. His main research interests include blockchain technology and federated learning

    Ma Jie: born in 1997. Master. His main research interests include blockchain technology and federated learning

    Tian Zhao: born in 1985. PhD, associate professor, master supervisor. His main research interests include blockchain technology, information security, and intelligent transport

    Wang Qi: born in 1986. PhD, master supervisor. His main research interests include blockchain technology, machine learning, and big data technology

    She Wei: born in 1977. PhD, professor, PhD supervisor. His main research interests include blockchain technology, Internet of energy, and Internet healthcare

  • 摘要:

    在联邦学习作为隐私保护技术被广泛应用的同时,也产生了中心服务器不稳定和联邦学习服务器与参与方交互造成的隐私泄露等新的挑战及安全问题. 提出了一种基于区块链和动态评估的隐私保护联邦学习模型,利用区块链解决中心服务器的问题,通过本地训练使用稀疏化、全局模型更新使用差分隐私解决联邦学习过程中的隐私泄露问题,本地训练完成后用数字签名和双重Hash对比验证参与方身份和训练模型的所属权. 此外,使用多权重动态评估方法计算单轮模型和参与方评估值作为参与方贡献的依据. 实验结果表明,提出的模型可以有效解决联邦学习中的单点故障和局部模型验证问题,与传统联邦学习相比,使用稀疏化和差分隐私可以在略微损失准确率的情况下保障模型的安全性,并有效地为参与方进行评估,从而保证了激励机制的公平性.

    Abstract:

    While federated learning is widely used as a privacy-preserving technology, new challenges such as instability of the central server and privacy leakage caused by the interaction between the federated learning server and the participants as well as security issues have arisen. A privacy-preserving federated learning model based on blockchain and dynamic evaluation is proposed. Local training is performed using sparsification, and global model updates are protected using differential privacy to solve the privacy leakage problem in the federated learning process, using digital signature and double Hash comparisons to verify the identity of the participants and the ownership of the trained model after the completion of local training. In addition, multiple weight dynamic evaluation method is used to calculate the model’s single-round evaluation and the final evaluation of the participants. Experiments show that the proposed model can effectively solve the single-point failure and local model verification problems in federation learning, and the use of sparsification and differential privacy can guarantee the security of the model with a slight loss of accuracy compared with traditional federation learning. The evaluation of the local model and the participants are scored as the basis for the participants’ contributions, thus effectively ensuring the fairness of the incentive mechanism.

  • 作为一种算力和网络融合的新型网络技术和架构,算力网络(computing-first network)已成为学术界和工业界的热门话题和研究方向. 算力度量(computing resource metric)是算力网络中的关键性工作,它作为算力网络底层的技术基石,是有效标识和衡量算力资源的重要方法,在算力网络中扮演着不可或缺的角色.算力网络得以发展的重要前提是对算力资源有精准的评估和管控,这需要对算力资源进行准确地标识和表征,以配合前端的用户意图感知和后端的算力资源调度决策.

    然而,现在业界对于算力度量的研究尚处于起步阶段.目前的研究中对算力度量标准的设计较为单一,大部分单独使用静态指标或动态指标来衡量算力资源[1-3],这样容易造成算力资源利用率低、匹配算力资源准确性较差等问题.

    例如,文献[1]中所提到的指标均为静态指标,没有考虑实时变化的网络状态和算力节点的工作状态,导致算力资源匹配准确率较低.因为当2个算力节点的基础性能相近时,由于无法得知算力节点的实时工作状态,难以区分哪一个节点更适合用户任务,可能会分配到资源不匹配的算力节点.

    与文献[1]不同,文献[2-3]中的算力度量指标均为动态指标,文献[2-3]中提到了使用计算资源大小、CPU使用率、存储情况和网络状态等动态指标来度量算力资源,但缺少对静态指标的考虑.如果不考虑静态指标,将难以区分算力节点的基础性能,可能会出现“高分低就”现象,导致算力资源利用率较低.

    可以看出,单方面考虑静态指标或动态指标,可能会影响算力度量的有效性.由于静态指标代表算力节点的基础性能,动态指标代表算力节点的动态性能,结合目前业界对于算力度量研究存在的问题,为更有效地进行算力度量,提出了一种先静后动的混合式度量方法(hybrid metric method, HMM),并提出了更为全面的指标.

    本文利用熵权法[4]去分析静态指标,包括TOPS/W(tera operations per second per watt),GOPS(giga operations per second),MIPS(million instructions per second),RAM和硬盘存储大小.对每个算力节点的基础性能进行评分,然后利用基于决策树的CART算法[5]将排好序的分数进行分段;最后在分完段的每一段内,分析CPU空闲率、GPU空闲率、剩余硬盘存储和吞吐率等指标,利用n维欧氏距离的方法[6]计算算力节点与用户任务所需性能之间的“距离”,找到最短的“距离”,即找到了更可能满足用户任务需求的算力节点.

    本文的主要贡献有2点:

    1)为解决目前业界对于算力度量的指标单一化、片面化等问题,提出了更为综合性的指标;

    2)提出了一种结合静态指标和动态指标的混合式算力度量方法HMM验和,经实验和数据分析,在算力节点的选择上,HMM在算力资源利用率和匹配准确率上表现得更优.

    关于算力度量的设计问题,目前已经存在相关研究工作,主要从不同的算力服务场景出发,包括基础算力、智能算力和超算算力.基础算力表示以中央处理器(central processing unit,CPU)为计算单元的计算能力;智能算力是指以图形处理器(graphics processing unit,GPU)、现场可编程逻辑门阵列(field programmable gate array,FPGA)、专用集成电路 (application specific integrated circuit,ASIC)等为代表的具有人工智能(artificialintelligence,AI)训练和推理学习的加速计算单元的计算能力;超算算力则是反映普遍用于科学计算场景的高性能计算集群的计算能力[1].为更深入的研究,总结了传统资源度量技术和现有算力资源度量技术.

    文献[7]提出了一种衡量CPU性能的方法,其主流思想一直延续至今.该文提出将CPI(clock per instruction)作为衡量CPU性能的指标.由于CPI是2个可测量的东西的乘积:CPI=每条指令的周期×每条指令的事件,CPI被认为是表示处理器性能的最自然的度量.文献[7]在度量CPU性能时所涉及到的指令数、时钟周期、操作数等指标,为本文提出采用TOPS/W和MIPS作为衡量CPU静态指标参数提供了启发.文献[8]提到GPU的性能与周期指令数、浮点运算能力和寄存器有关,如IPC(instructions per cycle)、缓存命中率(cache hit rate)、DRAM利用率、L2利用率等.文献[9]针对GPU集群中多项性能指标实时优化的问题,综合考虑计算速度、能耗和可靠性3项指标,利用极大熵函数法把3项指标转化为一个综合性能评价指标,并构造了控制稳定性和鲁棒性良好的模型.其中,在状态信息中只有计算频率为计算速度指标提供依据,由于本文不涉及GPU集群,因此不考虑能耗和控制问题,但文献[9]为本文采用GOPS和RAM作为静态指标参数提供了思路.文献[10]基于泊松假设的数学模型定义了从活动模式到空闲模式的转换概率,通过不同磁盘模式之间的转换概率来研究I/O 系统的能耗和性能指标,并评估了能耗和性能指标,包括存储器、队列长度、吞吐率、响应时间等,为本文采用RAM、硬盘存储量和吞吐率作为静动态指标参数提供了启发.

    表1中主要展示了目前3类算力度量的设计,即静态指标、动态指标和静动态结合的混合指标.

    表  1  算力度量方法的对比
    Table  1.  Comparison of Computing Resource Metric Methods
    相关工作方法静态指标动态指标
    CPUGPU存储CPUGPU吞吐率存储
    文献[1]方法
    文献[23]方法
    HMM
    注:√表示考虑了该指标.
    下载: 导出CSV 
    | 显示表格

    文献[1]考虑的均为静态指标,如逻辑运算能力、并行计算能力、神经计算能力、存力、算法能力、路由协议和算效等指标,虽涵盖了目前主流的处理器CPU和GPU,以及存储和网络因素,但其均为静态值,没有考虑实时变化的网络状态和算力节点的工作状态,容易导致算力资源匹配准确率低.因为当2个算力节点的基础性能相近时,由于无法得知算力节点的实时工作状态,难以辨别哪一个节点更适合用户任务,会出现分配到不合适的算力节点的情况.

    文献[2]提出了一种基于Floyd算法的算力感知路由调度策略来解决智能任务调度问题,其在多任务、多路由节点、多边缘服务器的边缘算力网络场景下做了仿真和模型.但在算力度量的工作上,文献[2]仅提出了2项算力节点的动态性能指标—— CPU转数和存储剩余量,没有考虑静态性能指标,可能会出现“高分低就”等问题,导致算力资源利用率较低. 文献[3]研究了算力感知网络中效用优化的资源分配问题,但在算力度量工作中只提到了CPU利用率和存储剩余量,同样缺乏静态指标的考虑,也可能会造成算力资源利用率低等问题.

    静态指标和动态指标均反映算力节点的性能,全面分析算力资源是有效度量算力的方式.通过对现有的算力度量技术的研究与总结,可以看出HMM在静动态设计和指标综合性的表现更优.

    目前算力度量在业界缺乏统一标识,缺少全面性、综合性和可操作性的设计方案,难以开展算力度量工作.

    全面性指算力度量需考虑静态指标和动态指标,不仅要衡量算力节点的基础性能,还要考虑算力节点当前的工作状态,确保全面地评估算力资源.综合性指度量指标需涵盖目前主流算力和网络性能指标,综合度量各类计算资源、存储资源和网络资源等.可操作性指算力度量工作需符合实际且理论和实验均具有可行性,是可实施且有效的度量方案.

    1)全面性

    考虑全面性工作,本文提出先静后动的混合式度量的设计方案.先计算算力节点基础性能分数,将分数合理分段,最后在段内找到合适的算力节点.

    算力节点能否满足用户任务的需求,首先要看它的基础性能高低,其次看它当前的工作状态能否满足用户任务的需求.假设当一个用户任务需要一个高性能且CPU空闲率为30%的算力节点,这时如果要找到匹配其需求的算力节点,需要从基础性能为高性能的算力节点中选择CPU空闲率达到、但不远超30%的算力节点.

    但有2种情况是不可取的,第1种情况是不能在所有基础性能未知的节点中选择CPU空闲率大于30%的算力节点,这样可能会出现当动态指标相同时,本是低性能节点就已满足用户需求,却选择了高性能节点,造成资源浪费和算力节点利用率低的问题;或者动态指标相同时,应选择高性能节点却选择了低性能节点,影响用户利益.第2种情况是不能在高性能算力节点中随意选择工作状态无法确定的算力节点,这样容易造成节点匹配准确率低的问题.

    区分算力节点基础性能高低,并考虑当前节点工作状态满足业务需求的设计,是一种更有效的度量方式,是用户意图感知和调度算力资源的基础.

    2)综合性

    指标的综合性在算力度量工作中同样重要.在静态指标选取上,本研究采用CPU、GPU、存储等因素.在动态指标上,采用CPU空闲率、GPU空闲率、吞吐率和硬盘剩余存储量.综上,本文考虑了基础算力、智能算力、存储能力、网络能力四大指标,并衍生出9个具体指标.

    ① 基础算力.当处理普通业务时,CPU可以确定其运行速度[11].本文将处理器运算能力的性能指标TOPS/W和衡量CPU速度指标——每秒执行百万级指令数MIPS作为静态指标的其中2个因素研究.将CPU空闲率作为动态指标的其中1要素.

    ② 智能算力.当用于深度学习应用程序、大规模并行处理或其他要求严苛的工作负载时,GPU就显得尤为重要[12].本文采用常规神经网络算力指标GOPS和存储性能指标RAM作为静态指标中的因素,将GPU空闲率作为动态指标的其中1要素.

    ③ 存储能力.考虑到算力节点的工作不止有计算,还有存储等功能[13].本文将存储指标RAM和硬盘存储大小考虑为静态指标的因素.将硬盘剩余存储量作为动态指标的其中1要素.

    ④ 网络能力.本文将吞吐率作为动态指标的其中1要素,其单位为req/s.吞吐率,特指Web服务器单位时间内处理的请求数,是服务器并发处理能力的量化描述,是衡量网络服务能力的重要指标[14].在衡量网络转发性能时,它能直观地反映网络处理事务能力的好坏.

    3)可操作性

    为验证本方案的可操作性,图1展示了3种场景下的案例分析,即对静态指标或动态指标及先静后动的混合式度量方法做了假设和理论分析对比.这3种度量方式均存在所有条件都满足的情况.但不同的是,当只考虑静态指标时,其动态指标不一定都能满足用户任务需求,如CPU空闲率不足或GPU空闲率不足等;当只考虑动态指标时,又存在基础性能不达标或远超标的问题.而HMM可以在满足基础性能的同时又能适配算力节点目前的工作状态,可以有效地提高算力资源利用率和匹配准确率.

    图  1  HMM与只有静态和只有动态指标的场景案例分析
    Figure  1.  Case study of HMM, static only and dynamic only indicators

    图1中所示,从用户任务端向左看,每个用户任务都分别引出3根不同颜色的线,橘色代表HMM,绿色代表只有静态指标的方法,紫色代表只有动态指标的方法.而实线和虚线分别代表匹配效果理想和不理想.对于只考虑静态指标的场景,可以看到,用户任务2、用户任务3匹配到了理想的算力节点.但对用户任务1来说,其基础性能的需求为要达到待选算力节点群中基础性能的45%,CPU空闲率达到60%,GPU空闲率达到40%,存储空间需要50 GB,吞吐率要达到1700 req/s.在选择算力节点时,其匹配到了基础性能为46%的节点1,但其CPU空闲率、GPU空闲率和吞吐率均不满足要求.

    对于只考虑动态指标的场景,可以看到,用户任务1、用户任务2匹配到了理想的算力节点,但对用户任务3来说,虽然其匹配到的节点5其动态指标均已满足需求,但其40%的基础性能不满足需求,也是一个失败的案例.

    对于先静后动的混合式度量方法,用户任务1、用户任务2和用户任务3分别匹配到了每一项条件都符合的算力节点2、节点1和节点3,可以看到,HMM可以精确地匹配到理想的算力节点.

    HMM的工作流程如图2所示,共分为4步.首先利用熵权法计算出算力节点的基础性能分数,然后利用基于决策树的CART算法对分数进行合理的分段,其次在符合业务需求的段内,利用n维欧式距离算出算力节点性能与用户任务所需性能的距离,最后找到最短距离,即找到最符合用户任务需求的算力节点.下面介绍具体的算法.

    图  2  HMM的工作流程
    Figure  2.  The workflow of HMM

    首先利用熵权法[4]对静态指标进行分析,得到计算节点静态性能的得分.采用熵权法的目的是由于熵权法是一种客观赋权方法,其与指标本身无关,根本在于指标选择是否具有逻辑性、科学性.它借鉴了信息熵思想,通过计算指标的信息熵,根据指标的相对变化程度对系统整体的影响来决定指标的权重,即根据各个指标标志值的差异程度来进行赋权,从而得出各个指标相应的权重以及综合评价分数.

    假设有m个算力节点和n个评估指标,形成原始指标数据矩阵:

    (x11x1nxm1xmn) (1)

    其中xij表示第i个算力节点第j项评价指标的数值.对于某项指标Xj,样本的离散程度越大,则该指标在综合评价中所起的作用就越大;如果该指标的数值全部相等,则表示该指标在综合评价中不起作用.

    由于本研究中所涉及到的数值是越大越好,为正向指标,可不用对各指标进行标准化处理.

    计算第j个指标中,第i个算力节点的权重:

    pij=xijni=1xij, (2)

    其中,(0. 建立数据的比重矩阵:

    \left( {\begin{array}{*{20}{c}} {{{{p}}_{11}}}& \ldots &{{{{p}}_{1n}}} \\ \vdots & \ddots & \vdots \\ {{{{p}}_{m1}}}& \cdots &{{{{p}}_{mn}}} \end{array}} \right). (3)

    然后计算第j个指标的熵值:

    {{{e}}_j} = - k\sum\limits_{i=1}^n {{{{p}}_{ij}}} \ln {{{p}}_{ij}} \;, (4)

    其中,常数k > 0,k = \dfrac{1}{{\ln m}}.

    又因为要保证0 \leqslant {{{e}}_j} \leqslant 1,即最大为1.所以,第j个指标的熵值为:

    {{{e}}_j} = - \frac{1}{{\ln m}}\sum\limits_{i=1}^n {{{{p}}_{ij}}} \ln {{{p}}_{ij}}, (5)

    其中,(i = 1,2,…,n,j = 1,2,…,m.) ,然后需要定义第j个指标的差异程度,熵权法根据各个指标数值的差异程度来进行赋权,从而得出各个指标相应的权重:

    {{{d}}_j} = 1 - {{{e}}_j}\text{,} (6)

    其中,(j = 1,2,…,m.) ,定义权重wj

    {{{w}}_j} = \frac{{{{{d}}_j}}}{{ \displaystyle \sum\limits_{j = 1}^m {{{{d}}_j}} }} \;. (7)

    最后得到综合评价Fi

    {{{F}}_i} = \sum\limits_{j = 1}^m {{{{p}}_{ij}}} {{{w}}_j} \;. (8)

    将TOPS/W、GOPS、MIPS、RAM、硬盘存储大小这5个静态因素定义为一个五元组I,则{I} = ( {I_1}, {I_2},{I_3},{I_4},{I_5}).通过熵权法,取得较为客观的指标权重,用w表示权重,则 {w_i} = \{ {w_1},{w_2},{w_3},{w_4},{w_5}\} 分别对应5个因素的权重.从而得到一个多因素静态联合指标M

    M = {w_1} \times {I_1} + {w_2} \times {I_2} + {w_3} \times {I_3} + {w_4} \times {I_4} + {w_5} \times {I_5} \;. (9)

    当用户只对单个算力资源(如存储)有需求时,则直接对收集到的算力节点的单个资源进行排序.高性能者享有更高的优先级.如果是仅对存储有要求,此时的指标应变成RAM和硬盘存储剩余量.由于硬盘存储剩余量是动态变化的参数,且它的数值和数值之间在时间上无相关性,可直接将RAM进行优劣排序,再在此基础上对硬盘存储剩余量进行优劣排序.

    分段可以更为精确地提供算力节点的可选择范围,是算力度量中的关键性工作.

    在第1步得到算力节点基础性能得分后,第2步利用基于决策树的CART算法[5]来给排好序的算力节点的分数进行分段.CART可以根据数值本身找到合适的阈值进行分割,从而达到分段效果.

    假设有K个类,算力节点属于第k类的概率为pk k=1,2,\cdots ,K,则概率分布的基尼指数定义为:

    {Gini} (D) = \sum\limits_{k = 1}^K {{p_k}} \left( {1 - {p_k}} \right) = 1 - \sum\limits_{k = 1}^K {p_k^2}\;. (10)

    给定算力节点的序号为集合D,其基尼指数为:

    {Gini} = 1 - \sum\limits_{k = 1}^K {{{\left( {\frac{{\left| {{C_k}} \right|}}{{|D|}}} \right)}^2}} \;, (11)

    其中,CkD中属于第k类的样本子集,K是类的个数.

    算力节点的序号集合D根据特征值A是否取某一可能值a被分割成D1D2 2部分,特征值A为算力节点的性能得分.

    \begin{split} &{D_1} = \{ (x,y) \in D\mid A(x) = a\} ,\\ &({D_2} = D - {D_1}) \end{split} (12)

    则在特征A的条件下,集合D的基尼指数为:

    {Gini} (D,A) = \frac{{\left| {{D_1}} \right|}}{{|D|}}{Gini} \left( {{D_1}} \right) + \frac{{\left| {{D_2}} \right|}}{{|D|}}{Gini} \left( {{D_2}} \right) \;. (13)

    根据基尼指数,选择最优特征和最优切分点,然后得到分类Di,并得到Di中算力节点的数量Ci.

    考虑到动态因素数值不断变化的特殊性,在选择评价模型上,若将用户任务比作A,算力节点比作B,需求量化为数值时,需求种类越多,维数越多.但AB之间的距离越小,代表差异越小,即B越满足A的条件.基于此思想,本研究采用n维欧氏距离法[6]对动态因素进行联合分析来选择合适用户任务的算力节点.

    假设用户任务需求为si,实际算力节点的性能为ti,则两者的距离为:

    d(S,T) = \sqrt {\sum\limits_{i = 1}^n {{{\left( {{s_i} - {t_i}} \right)}^2}} } \;. (14)

    本文将CPU空闲率、GPU空闲率、吞吐率和硬盘剩余量作为动态因素考虑,式(14)中的n=4.d(S,T)越小,说明两者的差异越小,越符合用户任务的需求.由于这4个因素的量纲不同,需要做归一化处理,使结果落到[0,1]区间,转换函数为:

    {t^*} = \frac{{t - \min }}{{\max - \min }} \;. (15)

    归一化后,此时的距离为:

    d\left( {{S^*},{T^*}} \right) = \sqrt {\sum\limits_{i = 1}^n {{{\left( {s_i^* - t_i^*} \right)}^2}} } \;. (16)

    得到段内的每个距离值后,最小的距离dmin意味着算力性能和用户任务需求更接近,代表此算力节点是更符合用户任务需求的算力节点.

    根据2.2节中的工作流程,本节实验将分3步进行,分别对算力节点的基础性能、性能分段和节点选择做出分析.本研究收集整理了实验室及学校内的1000台服务器的算力性能信息TOPS/W、GOPS、MIPS、RAM、硬盘存储大小,将其组成了一个数据集.

    图3为利用熵权法得到的1000个算力节点基础性能分数的结果.为了便于展示,已利用基于决策树的CART算法将所得分数分为3类.图3中可以直观地看到其分数情况呈高中低分布.算力节点的等级越高,算力节点的静态性能分数越高.

    图  3  算力节点的静态性能分数对比
    Figure  3.  Comparison of static performance scores of computing nodes

    在得到的1000个算力节点的静态性能分数的基础上,利用基于决策树的CART算法得到每一类算力节点的数量,如图4所示.此步的目的是为了合理划定基础性能的范围,以便更精准地匹配算力节点.

    图  4  每类算力节点的数量
    Figure  4.  The number of each type of computing nodes

    最后根据用户任务的需求确定算力节点基础性能等级,在该等级内利用n维欧氏距离,结合CPU空闲率、GPU空闲率、吞吐率和存储剩余量这4个动态因素,判断算力节点的性能与用户任务所需性能的距离,距离最短的节点更符合用户任务的需求.

    假设用户任务的需求为:静态性能达到45%,CPU空闲率为60%,GPU空闲率为40%,吞吐率为1700 req/s,存储剩余量需求为50 GB.为了保证展示效果,在静态性能为45%~46%中找到10组算力节点的数据进行演示,得到如图5所示的结果.柱体表示算力节点性能与用户任务需求之间的距离. 由于4个动态指标每一个都需要满足用户任务的需求,本研究去掉了距离为“负”的(没达到用户任务需求)的算力节点.在留下的算力节点中比较距离大小,最小的距离为最符合用户任务需求的算力节点.如图6所示,节点3为匹配该用户任务的最佳算力节点.

    图  5  用户任务需求与算力节点性能的距离
    Figure  5.  The distance between the user's task requirements and the performance of the computing nodes
    图  6  最终选出的算力节点
    Figure  6.  The final selected computing nodes

    本节对提出的3种情况,即静态指标、动态指标和HMM进行算力节点利用率和匹配准确率的评估对比.

    式(17)中算力节点利用率U定义为所选算力节点数量与算力节点总量之比,结果如图7所示.实验采用了3.1节中的实验,在这个模拟实验中设置了1000个算力节点的静动态算力信息,然后更改用户任务的数量(100,200,\cdots,1000)和需求.可以看到,3种方法的利用率随着节点数的增加均呈上升趋势,采用HMM后,算力节点的利用率明显高于其他2种情况.这是由于既考虑静态指标又考虑动态指标,使得算力资源衡量得愈加精准,用户任务和算力节点能更有效地匹配,进而提升了节点利用率.

    图  7  HMM与静态和动态指标算力节点利用率的评估
    Figure  7.  The evaluation of HMM, static and dynamic metrics for computing nodes utilization
    U = \frac{{所选算力节点数量}}{{算力节点总量}}\;. (17)

    图8展示了3种方案下算力节点匹配准确率的对比.式(18)中匹配准确率P定义为符合用户任务所有条件的算力节点数量与所选算力节点数量之比.可以观察到,采用HMM后,由于考虑了度量的全面性、综合性和可操作性,以及实验最后一步n维欧式距离去负值找最短的方法,算力节点匹配准确率达到了100%,即实现利用及精确的程度.但只考虑静态指标得到的匹配准确率达到了30%~40%,只考虑动态指标得到的匹配准确率为35%~50%,可见这2种情况均不理想.相比之下,HMM的匹配度更优.

    图  8  HMM与静态和动态指标算力节点匹配准确率的评估
    Figure  8.  The evaluation of the matching precision of computing nodes for HMM, static and dynamic indicators
    {P^*} = \frac{{{\text{符合用户任务所有条件的算力节点数量}}}}{{{\text{所选算力节点数量}}}} \;. (18)

    本文设计了先静后动的混合式度量方法HMM.该方法既考虑算力节点的基础性能,又考虑算力节点当前的工作状态,并涵盖了目前主流的算力和网络性能指标,其理论和实验均具有可行性,满足了算力度量的全面性、综合性及可操作性.通过实验数据分析,HMM在提高算力资源利用率和匹配准确率中有良好的表现.后续工作将围绕算力与网络融合开展.未来也将在用户意图感知和算力调度的路由和寻址工作进行更深入的研究.

    作者贡献声明: 柴若楠负责实验设计、数据分析,以及论文初稿的撰写;郜帅指导实验设计、数据分析、论文写作,以及论文修改;兰江雨参与实验设计和试验结果分析;刘宁春参与论文的构思及整理.

  • 图  1   SPFLChain训练流程

    Figure  1.   SPFLChain training process

    图  2   共识委员会本地存储记录结构

    Figure  2.   Consensus committee local storage record structure

    图  3   奖励分发过程

    Figure  3.   Reward distribution process

    图  4   不同稀疏程度下的模型训练对比

    Figure  4.   Comparison of model training under different sparsity levels

    图  5   差分隐私添加不同噪声的模型训练对比

    Figure  5.   Comparison of model training with different noise added by differential privacy

    图  6   不同稀疏度程度对DLG攻击图片恢复影响对比

    Figure  6.   Comparison of the effect of different degrees of sparsity on the recovery of DLG attack images

    图  7   不同差分隐私噪声值对DLG攻击图片恢复影响对比

    Figure  7.   Comparison of the effect of different differential privacy noise values on the recovery of DLG attack images

    图  8   不同的参与方评估值对比

    Figure  8.   Comparison of evaluation values among different participants

  • [1]

    Mcmahan B, Moore E, Ramage D, et al. Communication-efficient learning of deep networks from decentralized data[C] //Proc of the 20th Int Conf on Artificial Intelligence and Statistics. New York: PMLR, 2017: 1273−1282

    [2]

    Rodriguez-Barroso N, Jimenez-Lopez D, Luzon M V, et al. Survey on federated learning threats: Concepts, taxonomy on attacks and defences, experimental study and challenges[J]. Information Fusion, 2023, 90: 148−173 doi: 10.1016/j.inffus.2022.09.011

    [3]

    Zhu Ligeng, Liu Zhijian, Han Song. Deep leakage from gradients[J]. Advances in Neural Information Processing Systems, 2019, 32: 14774−14784

    [4]

    Zhao Bo, Mopuri K R, BILEN H. IDLG: Improved deep leakage from gradients[J]. arXiv preprint, arXiv: 2001.02610, 2020

    [5]

    Melis L, Song C, Cristofaro E De, et al. Exploiting unintended feature leakage in collaborative learning[C] //Proc of 2019 IEEE Symp on Security and Privacy (SP). Piscataway, NJ: IEEE, 2019: 691−706

    [6]

    Hitaj B, Ateniese G, Perez-Cruz F. Deep models under the GAN: Information leakage from collaborative deep learning[C] //Proc of the 2017 ACM SIGSAC Conf on Computer and Communications Security. New York: ACM, 2017: 603−618

    [7]

    Shafahi A, Huang W R, Najibi M, et al. Poison frogs! targeted clean-label poisoning attacks on neural networks[J]. Advances in Neural Information Processing Systems, 2018, 31: 6103−6113

    [8]

    Sun Gan, Yang Cong, Dong Jiahua, et al. Data poisoning attacks on federated machine learning[J]. IEEE Internet of Things Journal, 2021, 9(13): 11365−11375

    [9]

    Bhagoji A N, Chakraborty S, Mittal P, et al. Analyzing federated learning through an adversarial lens[C] //Proc of Int Conf on Machine Learning. New York: PMLR, 2019: 634−643

    [10]

    Shokri R, Stronati M, Song C, et al. Membership inference attacks against machine learning models[C] //Proc of 2017 IEEE Symp on Security and Privacy (SP). Piscataway, NJ: IEEE, 2017: 3−18

    [11]

    Tan Alysa Ziying, Yu Han, Cui Lizhen, et al. Towards personalized federated learning[J]. arXiv preprint, arXiv: 2103.00710, 2021

    [12]

    Nguyen D C, Ding Ming, Pham Q V, et al. Federated learning meets blockchain in edge computing: Opportunities and challenges[J]. IEEE Internet of Things Journal, 2021, 8(16): 12806−12825 doi: 10.1109/JIOT.2021.3072611

    [13]

    Gosselin R, Vieu L, Loukil F, et al. Privacy and security in federated learning: A survey[J]. Applied Sciences, 2022, 12(19): 9901

    [14]

    Qu Youyang, Uddin M P, Gan Chenquan, et al. Blockchain-enabled federated learning: A survey[J]. ACM Computing Surveys, 2022, 55(4): 1−35

    [15]

    Kim H, Park J, Bennis M, et al. Blockchained on-device federated learning[J]. IEEE Communications Letters, 2019, 24(6): 1279−1283

    [16]

    Liu Yuan, Sun Shuai, Ai Zhengpeng, et al. FedCoin: A peer-to-peer payment system for federated learning[M]//Federated Learning: Privacy and Incentive. Cham: Springer International Publishing, 2020: 125−138

    [17]

    Peng Zhe, Xu Jianliang, Chu Xiaowen, et al. VFChain: Enabling verifiable and auditable federated learning via blockchain systems[J]. IEEE Transactions on Network Science and Engineering, 2021, 9(1): 173−186

    [18]

    Li Yuzheng, Chen Chuan, Liu Nan, et al. A blockchain-based decentralized federated learning framework with committee consensus[J]. IEEE Network, 2020, 35(1): 234−241

    [19] 高胜,袁丽萍,朱建明,等. 一种基于区块链的隐私保护异步联邦学习[J]. 中国科学:信息科学,2021,51(10):1755−1774 doi: 10.1360/SSI-2021-0087

    Gao Sheng, Yuan Liping, Zhu Jianming, et al. A privacy-preserving asynchronous federated learning based on blockchain[J]. SCIENTIA SINICA Informationis, 2021, 51(10): 1755−1774 (in Chinese) doi: 10.1360/SSI-2021-0087

    [20]

    Wainakh A, Guinea A S, Grube T, et al. Enhancing privacy via hierarchical federated learning[C] //Proc of 2020 IEEE European Symp on Security and Privacy Workshops (EuroS&PW). Piscataway, NJ: IEEE, 2020: 344−347

    [21]

    Shayan M, Fung C, Yoon C J M, et al. Biscotti: A blockchain system for private and secure federated learning[J]. IEEE Transactions on Parallel and Distributed Systems, 2020, 32(7): 1513−1525

    [22]

    Zhao Yang, Zhao Jun, Jiang Linshan, et al. Privacy-preserving blockchain-based federated learning for IoT devices[J]. IEEE Internet of Things Journal, 2020, 8(3): 1817−1829

    [23] 周炜,王超,徐剑,等. 基于区块链的隐私保护去中心化联邦学习模型[J]. 计算机研究与发展,2022,59(11):2423−2436 doi: 10.7544/issn1000-1239.20220470

    Zhou Wei, Wang Chao, Xu Jian, et al. Privacy-preserving and decentralized federated learning model based on the blockchain[J]. Journal of Computer Research and Development, 2022, 59(11): 2423−2436 (in Chinese) doi: 10.7544/issn1000-1239.20220470

    [24] 祝烈煌,高峰,沈蒙,等. 区块链隐私保护研究综述[J]. 计算机研究与发展,2017,54(10):2170−2186 doi: 10.7544/issn1000-1239.2017.20170471

    Zhu Liehuang, Gao Feng, Shen Meng, et al. Survey on privacy preserving techniques for blockchain technology[J]. Journal of Computer Research and Development, 2017, 54(10): 2170−2186 (in Chinese) doi: 10.7544/issn1000-1239.2017.20170471

    [25]

    Eghlidi N F, Jaggi M. Sparse communication for training deep networks[J]. arXiv preprint, arXiv: 2009.09271, 2020

    [26]

    Dwork C, Roth A. The algorithmic foundations of differential privacy[J]. Foundations and Trends® in Theoretical Computer Science, 2014, 9(3–4): 211−407

    [27]

    Dwork C. Differential privacy: A survey of results[C] //Proc of Int Conf on Theory and Applications of Models of Computation. Berlin: Springer, 2008: 1−19

    [28]

    Ma Chuan, Li Jun, Shi Long, et al. When federated learning meets blockchain: A new distributed learning paradigm[J]. IEEE Computational Intelligence Magazine, 2022, 17(3): 26−33 doi: 10.1109/MCI.2022.3180932

  • 期刊类型引用(9)

    1. 章刚,黎曦. 基于算力网络的异构算力请求路由算法. 电信科学. 2025(02): 95-110 . 百度学术
    2. 黄杰,马凯,陈雪瓶,孙伯清,何宏靖. Cloudera Manager扩展MariaDB服务的方法研究. 现代信息科技. 2024(02): 96-101 . 百度学术
    3. 王继彬,张虎,陈静,郭莹. 算力网络场景下的超算互联网建设探索与实践. 邮电设计技术. 2024(02): 14-21 . 百度学术
    4. 祝淑琼,徐青青,李小涛,陈维. 算力度量与任务调度:物联网端侧设备策略研究. 电信科学. 2024(04): 122-138 . 百度学术
    5. 曹庆皇,王济晟,黄钟. 基于家庭分布式HomeCDN实现端侧算力网络的研究. 江苏通信. 2024(03): 51-56 . 百度学术
    6. 周旭晖,马威,裴培,肖伟,郭爱鹏. 基于算力度量的算力调度策略研究. 中国新通信. 2024(18): 21-23+34 . 百度学术
    7. 赵宝康,时维嘉,周寰,孙薛雨. 算力网络研究进展:架构、关键技术与未来挑战. 上海理工大学学报. 2024(06): 600-609 . 百度学术
    8. 刘业政,黄丽华,朱扬勇,孙见山,宋靖达. 长三角国家算力枢纽节点赋能制造业数字化转型的机理与路径. 大数据. 2023(05): 61-77 . 百度学术
    9. 吕超,王晨昕,于雷,刘彧. 以云网智算融合为基础的数字家庭操作系统研究与实践. 新一代信息技术. 2023(24): 17-22 . 百度学术

    其他类型引用(4)

图(8)
计量
  • 文章访问数:  307
  • HTML全文浏览量:  47
  • PDF下载量:  186
  • 被引次数: 13
出版历程
  • 收稿日期:  2023-01-19
  • 修回日期:  2023-06-04
  • 网络出版日期:  2023-06-25
  • 刊出日期:  2023-11-14

目录

/

返回文章
返回