Processing math: 14%
  • 中国精品科技期刊
  • CCF推荐A类中文期刊
  • 计算领域高质量科技期刊T1类
高级检索

大规模海洋数据同化的并行优化

蔡迪, 洪学海, 肖俊敏, 谭光明

蔡迪, 洪学海, 肖俊敏, 谭光明. 大规模海洋数据同化的并行优化[J]. 计算机研究与发展, 2023, 60(5): 1177-1190. DOI: 10.7544/issn1000-1239.202111185
引用本文: 蔡迪, 洪学海, 肖俊敏, 谭光明. 大规模海洋数据同化的并行优化[J]. 计算机研究与发展, 2023, 60(5): 1177-1190. DOI: 10.7544/issn1000-1239.202111185
Cai Di, Hong Xuehai, Xiao Junmin, Tan Guangming. Parallel Optimization for Large-Scale Ocean Data Assimilation[J]. Journal of Computer Research and Development, 2023, 60(5): 1177-1190. DOI: 10.7544/issn1000-1239.202111185
Citation: Cai Di, Hong Xuehai, Xiao Junmin, Tan Guangming. Parallel Optimization for Large-Scale Ocean Data Assimilation[J]. Journal of Computer Research and Development, 2023, 60(5): 1177-1190. DOI: 10.7544/issn1000-1239.202111185
蔡迪, 洪学海, 肖俊敏, 谭光明. 大规模海洋数据同化的并行优化[J]. 计算机研究与发展, 2023, 60(5): 1177-1190. CSTR: 32373.14.issn1000-1239.202111185
引用本文: 蔡迪, 洪学海, 肖俊敏, 谭光明. 大规模海洋数据同化的并行优化[J]. 计算机研究与发展, 2023, 60(5): 1177-1190. CSTR: 32373.14.issn1000-1239.202111185
Cai Di, Hong Xuehai, Xiao Junmin, Tan Guangming. Parallel Optimization for Large-Scale Ocean Data Assimilation[J]. Journal of Computer Research and Development, 2023, 60(5): 1177-1190. CSTR: 32373.14.issn1000-1239.202111185
Citation: Cai Di, Hong Xuehai, Xiao Junmin, Tan Guangming. Parallel Optimization for Large-Scale Ocean Data Assimilation[J]. Journal of Computer Research and Development, 2023, 60(5): 1177-1190. CSTR: 32373.14.issn1000-1239.202111185

大规模海洋数据同化的并行优化

基金项目: .国家重点研发计划项目(2016YFC1401706);国家自然科学基金青年科学基金项目(61802369);国家自然科学基金项目(62172391,61972377,62032023,T2125013)
详细信息
    作者简介:

    蔡迪: 1995年生. 硕士. 主要研究方向为高性能计算

    洪学海: 1967年生. 博士,教授,博士生导师,CCF高级会员. 主要研究方向为高性能计算、大数据和云计算

    肖俊敏: 1989年生. 博士. 主要研究方向为高性能计算、并行优化和AI的超级计算

    谭光明: 1980年生. 博士,教授,博士生导师. CCF高级会员. 主要研究方向为高性能计算和并行计算.

    通讯作者:

    洪学海(hxh@ict.ac.cn

  • 中图分类号: TP302

Parallel Optimization for Large-Scale Ocean Data Assimilation

Funds: This work was supported by the National Key Research and Development Program of China(2016YFC1401706), the National Natural Science Foundation of China for Young Scientists (61802369), and the National Natural Science Foundation of China (62172391, 61972377, 62032023, T2125013)
More Information
    Author Bio:

    Cai Di: born in 1995. Master. His main research interest is high performance computing

    Hong Xuehai: born in 1967. PhD, professor, PhD supervisor. Senior member of CCF. His main research interests include high performance computing, big data, and cloud computing

    Xiao Junmin: born in 1989. PhD. His mian research interests include high performance computing, parallel optimization,and supercomputing for AI

    Tan Guangming: born in 1980. PhD, professor, PhD supervisor. Senior member of CCF. His main research interests include high performance computing and parallel computing

  • 摘要:

    海洋数据同化是一种同时利用海洋观测资料和海洋数值模式对海洋数据进行修正的有效方法,经过处理的海洋数据更加接近海洋的真实情况. 在高分辨率下,基于中国科学院大气物理研究所(Institute of Atmospheric Physics,Chinese Academy of Sciences,IAP)和大气科学和地球流体力学数值模拟国家重点实验室(State Key Laboratory Modelling for Atmospheric Sciences and Geophysical Fluid Dynamics,LASG)发展的LASG/IAP气候系统海洋模式(LASG/IAP climate ocean model,LICOM)的同化并行程序往往涉及大量的文件读取、通信和计算,以往的研究虽然对这些方面进行了优化,但是由于优化只是停留在上层算法层面,没有考虑底层的文件系统以及超算集群的架构,因此优化的效果不太明显. 针对以往研究存在的问题,进一步将海洋数据同化的数据特性、计算特性与所使用的超算平台的架构特性相结合,在此基础上结合时间局部性和空间局部性,提出了基于计算拓扑图的负载均衡策略、基于Lustre文件存储架构和超算集群特性的并行优化策略,以及计算、读取通信、写回3层重叠策略. 最后,使用高分辨率数据集,在天河2号超算集群上对所提算法进行了测试. 相比于现有算法,所提的算法在4000核下对总体同化性能上提升了18倍. 另外,还在曙光7000超算集群上开展了测试. 在4000块DCU加速卡上,相比于已有算法,所提算法提升总体计算性能8倍左右.

    Abstract:

    Ocean data assimilation is an effective method to process ocean data by using ocean observation data and ocean numerical model simultaneously, and the processed ocean data is closer to the real ocean situation. Under high resolution, parallel assimilation programs based on LASG/IAP climate ocean model (LICOM) often involve a lot of file reading, communication and calculation. Although these aspects have been optimized in previous studies, these optimization algorithms only remain at the upper level. Without considering the underlying file system and the architecture of the supercomputer cluster, the optimization algorithm has great limitations, so the effect of optimization is not obvious. In this paper, the data characteristics and computing characteristics of ocean data assimilation are combined with the architectural characteristics of the used supercomputer platform . On this basis, combining the temporal locality and spatial locality, a load-balancing strategy based on computing topology, a parallel optimization strategy based on the storage architecture of Lustre parallel file system and the characteristics of supercomputer clusters, and a three-layer overlapping strategy of computing, reading and communication, and writing back are proposed. Finally, we test our algorithm on Tianhe-2 supercomputer cluster using high-resolution datasets. Compared with the existing ocean assimilation program, the overall performance of our algorithm improves by 18 times under 4000 cores. In addition, we also test on the Sugon 7000 supercomputer cluster. The maximum number of DCU cards used in this paper is 4000. Compared with the existing program, the overall performance is improved about 8 times.

  • 深度学习凭借对样本高维特征的非线性表达及数据信息的抽象表示,极大地推进了语音识别、计算机视觉等人工智能方法在工业中的应用. 1989年LeCun等人[1]提出深度卷积网络LeNet模型,在手写体图像识别领域取得了突破性进展,为深度学习的发展提供了前提和基础. 为进一步提升深度神经网络模式识别及图像处理精度,推广其在工业中的应用,国内外学者不断优化及改进网络结构. 随着模型层数逐步增加,模型参数和架构愈加庞大,算法对存储、计算等资源的需求不断增长,导致大模型网络失效等问题[2],例如Resnet50,VGG16等大型神经网络,尽管在图像分类应用上表现出卓越性能,但其冗余参数导致较高计算成本和内存消耗. 同时,多媒体、5G技术、移动终端的快速发展,边缘计算设备广泛部署,使网络应用需求逐步增加. 手机、平板电脑、移动摄像机等便携式近端设备相比于固定设备存在数十倍的计算、存储等能力差距,为大规模网络近端迁移与运行带来困难. 如何提升边缘设备计算、识别及分类能力,实现大规模深度学习网络的近端部署成为有意义的工作. 基于此,Buciluǎ等人[3]提出神经网络模型压缩方法,将信息从大模型或模型集合传输到需要训练的小型模型,而不降低模型精度. 同时,大规模神经网络模型中包含的大量参数存在一定功能稀疏性,使网络结构出现过参数化等问题,即使在网络性能敏感的大规模场景中,仍包含产生重复信息的神经元与链接. 知识蒸馏 (knowledge distillation, KD)将高性能大规模网络作为教师网络指导小规模学生网络[4],实现知识精炼与网络结构压缩,成为模型压缩、加速运算、大规模网络近端部署的重要方法.

    然而,随着人们对隐私保护意识的增强以及法律、传输等问题的加剧,针对特定任务的深度网络训练数据往往难以获取,使Data-Free环境下的神经网络模型压缩,即在避免用户隐私数据泄露的同时得到一个与数据驱动条件下压缩后准确率相似的模型,成为一个具有重要实际意义的研究方向. Chen等人[5]提出Data-Free环境知识蒸馏框架DAFL (data-free learning of student networks, DAFL),建立教师端生成器,生成伪样本训练集,实现知识蒸馏并获得与教师网络性能近似的小规模学生网络. 然而,该方法在复杂数据集上将降低学生网络识别准确率,其主要原因有3个方面:

    1)判别网络优化目标不同. 模型中教师网络优化生成器产生伪数据,实现学生网络知识蒸馏,使学生网络难以获得与教师网络一致的优化信息构建网络模型.

    2)误差信息优化生成器. 教师端生成器的构建过度信任教师网络对伪数据的判别结果,利用误差信息优化并生成质量较差的伪训练样本,知识蒸馏过程学生网络难以有效利用教师网络潜在先验分布信息.

    3)学生网络泛化性低. 模型中生成数据仅依赖于教师网络训练损失,导致生成数据特征多样性缺失,降低学生网络判别性.

    图1所示, MNIST数据集中类别为1和7时图像特征有较大差异,而图1右侧中DAFL方法的学生网络得到的2类数据统计特征直方图相当近似,该模型训练得到的小规模学生网络针对特征相似图像难以获得更鲁棒的判别结果. 为提升DAFL模型中学生的网络准确率及泛化性,提出新的双生成器网络架构DG-DAFL(double generators-DAFL,DG-DAFL),图1右侧中由DG-DAFL框架训练得到学生网络判别器特征统计直方图对比,即1类和7类特征统计结果有一定差距,为后续分类提供了前提.

    图  1  近似样本特征归一化统计结果对比
    Figure  1.  Comparison of normalized statistical results for approximate sample characteristics

    为解决Data-Free环境知识蒸馏、保证网络识别精度与泛化性,本文提出双生成器网络架构DG-DAFL,学生端生成器在教师端生成器的辅助下充分利用教师网络潜在先验知识,产生更适合学生网络训练的伪训练样本,利用生成器端样本分布差异,避免DAFL学生网络对单一教师网络端生成器样本依赖,保证生成器样本多样性,提升学生网络判别器识别泛化性. 本文贡献有3方面:

    1)针对Data-Free知识蒸馏问题提出双生成器网络架构DG-DAFL,建立教师生成器网络与学生生成器网络,生成伪样本. 优化教师生成器网络的同时,学生网络判别器优化学生生成器网络,实现生成器与判别器分离,避免误差判别信息干扰生成器构建. 同时,使网络任务及优化目标一致,提升学生网络性能. 该结构可被拓展于解决其他任务的Data-Free知识蒸馏问题.

    2)通过增加教师网络及学生网络生成器端样本分布差异度量,避免单生成器网络结构中学生网络训练过度依赖教师生成器网络样本,产生泛化性较低等问题. 同时,该差异度量可使得学生网络生成数据在保证分布近似条件下的样本多样性,进一步提升学生网络识别鲁棒性.

    3)所提出框架在流行分类数据集Data-Free环境下,学生网络参数量仅为教师网络的50%时,仍取得了令人满意的识别性能. 同时,进一步验证并分析了近似样本数据集的分类问题,取得了更鲁棒的结果.

    针对大规模神经网络的近端部署与应用,网络模型压缩及加速成为人工智能领域的研究热点. 目前的模型压缩方法包括网络剪枝[6]、参数共享[7]、量化[8]、网络分解[9]、紧凑网络设计,其中知识蒸馏凭借灵活、直观的知识抽取及模型压缩性能受到学者广泛关注. 2015年,Hinton等人[4]提出知识蒸馏模型,构建教师网络、学生网络及蒸馏算法3部分框架,引入温度(temperature,T)系数,使卷积神经网络softmax层的预测标签由硬标签(hard-label)转换为软标签(soft-label),利用庞大、参数量多的教师网络监督训练得到体量、参数量更少且分类性能与教师网络更近似的学生网络[3-4,10-11]. 根据知识蒸馏操作的不同部分,分为目标(logits)蒸馏[12-16]与特征图蒸馏[17-22]两类. logits知识蒸馏模型主要目标集中在构建更为有效的正则化项及优化方法,在硬标签(hard-label)监督训练下得到泛化性能更好的学生网络. Zhang等人[16]提出深度互学习(deep mutual learning,DML)模型,利用交替学习同时强化学生网络与教师网络. 然而,教师网络与学生网络的性能差距使蒸馏过程难以收敛. 基于此,Mirzadeh等人[14]提出助教知识蒸馏(teacher assistant knowledge distillation,TAKD)模型,引入中等规模助教网络,缩小教师网络和学生网络之间过大的性能差距,达到逐步蒸馏的目的. 特征图知识蒸馏模型通过直接将样本表征从教师网络迁移至学生网络[17-18,20],或将训练教师网络模型样本结构迁移至学生网络[19,21-22],实现知识抽取. 该类方法充分利用大规模教师网络对样本的高维、非线性特征表达及样本结构,获得更高效的学生网络.

    Data-Free环境中用于训练模型的真实数据往往难以获取,使知识蒸馏模型失效. 对抗生成网络(generative adversarial network,GAN)技术的发展,激发了该类环境下知识蒸馏领域方法的进步. 2014年,Goodfellow等人[23]提出GAN模型,通过模型中生成器与鉴别器的极大极小博弈,二者相互竞争提升各自生成和识别能力[24],可用于生成以假乱真的图片[25]、影片[26]等的无监督学习方法. GAN中的生成器可合成数据直接作为训练数据集,或用于训练数据集增广及生成难样本支持学生网络训练. Nguyen等人[27]利用预训练的GAN生成器作为模型反演的先验,构建伪训练数据集. Bhardwaj等人[28]利用10%的原始数据和预训练教师模型生成合成图像数据集,并将合成图像用于知识蒸馏. Liu等人[29]与Zhang等人[30]均利用无标签数据提升模型效果,分别提出无标签数据蒸馏的光流学习(learning optical flow with unlabeled data distillation, DDFlow)模型[29]与图卷积网络可靠数据蒸馏(reliable data distillation on graph convolution network, RDDGCN)模型[30]. 其中RDDGCN模型利用教师网络对所生成的未标注数据给予新的训练注释,构建训练数据集训练学生网络. 有研究借助大规模预训练数据集提升模型效果,Yin等人[31]提出的DeepInversion方法将图像更新损失与教师、学生之间的对抗性损失结合,教师网络通过对Batch Normalization层中所包含通道的均值和方差进行推导,在大规模ImageNet数据集上预训练深度网络后合成图像作为训练样本集. Lopes等人[32]进一步利用教师网络先验信息,通过教师网络激活层重构训练数据集以实现学生网络知识蒸馏. 文献[28-32]所述方法均利用少量训练数据或常用的预训练数据集信息,在Data-Free环境中仍难以解决无法直接获取真实且可用于训练小规模学生网络的先验信息等问题.

    基于此,DAFL框架借助GAN学习模型,将预训练好的教师网络作为判别器网络,构建并优化生成器网络模型,生成更加接近真实样本分布的伪数据,为高精度、小规模学生网络的知识蒸馏与网络压缩提供有效先验信息,框架如图2所示. 首先,通过函数one_hot获得伪标签,利用损失函数将GAN中判别器的输出结果从二分类转换为多分类,以实现多分类任务的知识蒸馏;其次,采用信息熵损失函数、特征图激活损失函数、类别分布损失函数优化生成器,为学生网络训练提供数据;最终,实现在没有原始数据驱动条件下,通过知识蒸馏方法使学生网络参数减少一半,且具有与教师网络近似的分类准确率. 然而,DAFL框架中生成器优化过程完全信任判别器针对Data-Free环境中初始生成伪样本的先验判别,忽略了伪样本所构造伪标签带来的误差,干扰生成器优化,直接影响学生网络性能. 同时,教师网络与学生网络执行不同任务时存在学生网络过度依赖教师网络生成器样本,降低Data-Free环境下模型学习泛化性.

    图  2  DAFL架构
    Figure  2.  Architecture of DAFL

    为了提升生成样本质量,Fang等人[33]提出无数据对抗蒸馏(data-free adversarial distillation,DFAD)模型,通过训练一个外部生成器网络合成数据,使学生网络和教师网络输出差异最大化图像. Han等人[34]提出鲁棒性和多样性的Data-Free知识蒸馏(robutness and diversity seeking data-free knowledge distillation,RDSKD)方法在生成器训练阶段引入指数惩罚函数,提升生成器生成图像的多样性. Nayak等人[35]提出零样本知识蒸馏模型,仅利用教师网络参数对softmax层空间建模生成训练样本. 同时,Micaelli等人[36]提出零样本对抗性信息匹配模型,利用教师网络特征表示的信息生成训练样本. 为避免零样本学习中先验信息缺失降低学生网络学习准确率等问题,Kimura等人[37]与 Shen等人[38]分别提出伪样本训练模型与网络嫁接模型,二者均借助少量确定性监督样本,将知识从教师模型提取到学生神经网络中. 为充分利用教师网络先验信息,Storkey等人[39]提出zero-shot知识蒸馏方法,将教师网络同时定义为样本鉴别器. 同时,Radosavovic等人[40]提出全方位监督学习模型.

    文献[5, 33-40]所述的Data-Free环境中知识蒸馏模型所需的训练数据通常由已训练教师模型的特征表示生成,该类数据包含部分教师网络先验信息,在无数据可用的情况下显示出了很大的潜力. 然而,Data-Free知识蒸馏仍是一项非常具有挑战性的任务,主要集中在如何生成高质量、多样化、具有针对性的训练数据,进而获得更高精度、高泛化性的小规模学生网络.

    针对提升Data-Free环境中知识蒸馏方法有效性与泛化性,本文受DAFL模型的启发,提出DG-DAFL网络架构,如图3所示. 包括4部分网络结构:教师端生成器网络GT、学生端生成器网络GS 、教师端判别器网络NT、学生端判别器网络NS. DG-DAFL利用教师端与学生端判别器网络NTNS,同时优化生成器网络GTGS,保证学生网络与教师网络优化目标一致,避免真实样本标签类别先验信息缺失时生成器过度信任教师网络判别结果,产生质量较低的伪样本,降低学生网络判别性能. 同时,通过增加生成器端伪样本分布损失,保证学生端生成器网络训练样本多样性,提升学生网络学习泛化性. DG-DAFL框架的训练过程可总结为3个步骤:教师端辅助生成器GT构建、最优化学生端生成器GS构建、学生网络NS与教师网络NT知识蒸馏.

    图  3  DG-DAFL架构及学习过程
    Figure  3.  Architecture and learning process of DG-DAFL

    本文构建双生成器网络架构GTGS,通过教师网络提取训练样本先验信息,训练教师端生成器网络GT,使生成的伪样本分布更近似于真实样本. 由于真实样本标签缺失,GT难以得到来自于NT准确、充分的样本分布先验信息,实现最优化训练. 因此,本文仅利用教师端生成器网络GT作为训练学生端生成器网络GS的辅助网络,强化生成伪样本质量,提升学生网络判别准确率.

    随机样本{{\boldsymbol{Z}}^{({\rm{T}})}}作为教师端生成器网络{G_{\rm{T}}}({{\boldsymbol{Z}}^{\left( {\rm{T}} \right)}};{{\boldsymbol{\theta}} _{\rm{g}}})的初始输入,经网络计算后得到伪样本{\boldsymbol{x}}_i^{({\rm{T}})},i = 1,2,…, N,其中{{\boldsymbol{\theta}} _{\rm{g}}}{G_{\rm{T}}}网络参数. 同时,伪样本集{{\boldsymbol{X}}^{\left( {\rm{T}} \right)}}作为教师网络判别器{N_{\rm{T}}}({{\boldsymbol{X}}^{\left( {\rm{T}} \right)}};{{\boldsymbol{\theta}} _{\rm{d}}})的输入,可得到该网络判别结果,结合先验信息构造损失函数{{{\mathcal{L}}}_{{G_{\rm{T}}}}},反馈训练生成器网络{G_{\rm{T}}},得到更真实样本分布的伪训练样本集,用于学生网络知识蒸馏. 为获得优化反馈信息,{{\mathcal{L}}_{{G_{\rm{T}}}}}由3部分构成:

    1)伪样本集可计算得到网络输出向量{\boldsymbol{y}}_i^{\left( {\rm{T}} \right)} = {N_{\rm{T}}}\left( {{{\boldsymbol{X}}^{\left( {\rm{T}} \right)}};{{\boldsymbol{\theta}} _{\rm{d}}}} \right),由于伪样本{\boldsymbol{x}}_i^{\left( {\rm{T}} \right)}缺少真实标签信息,可求解输出向量的伪标签{{\boldsymbol{t}}_i} = \arg \mathop {\rm{m}}\limits_{{j}} \mathop {{\rm{ax}}}\limits{} {({\boldsymbol{y}}_i^{\rm{T}})_j},其中j{\text{ = }}1,2, … ,k. {\boldsymbol{t}}_{i}为包含 k 类向量中最大值位置,构建经验损失函数{{\mathcal{L}}_{\rm{{oh {\text{-}} T}}}}

    {\mathcal{L}_{{\rm{oh}}{{ {\text{-}} {\rm{T}}}}}} = \frac{1}{n}\sum\limits_i {{H_{{\rm{cross}}}}({\boldsymbol{y}}_i^{\left( {\rm{T}} \right)},{{\boldsymbol{t}}_i})} . (1)

    最小化预测标签与真实标签交叉熵值,学习教师网络判别器先验信息,使{G_{\rm{T}}}生成与真实样本分布更为接近的伪样本集.

    2)借助DAFL中模型训练过程,{N_{\rm{T}}}网络中多卷积层所提取的特征向量中更具判别性的神经元将被激活,即伪样本{{\boldsymbol{X}}^{\left( {\rm{T}} \right)}}经预训练网络{N_{\rm{T}}}逐层非线性特征计算后得到特征向量{\boldsymbol{f}}_i^{\left( {\rm{T}} \right)},其中更大激活值可包含更多的真实样本特征先验信息,特征图激活损失函数可被表示为

    \mathcal{L}_{\alpha \text{-T}}=-\frac{1}{N}{\displaystyle \sum _{i}\left|\right|{{\boldsymbol{f}}}_{i}^{\left({\rm{T}}\right)}|{|}_{\text{1}}^{}}\text{,} (2)

    该损失在生成器优化过程中减小伪样本经卷积滤波器后激活值更大的特征,得到更接近真实样本特征表达.

    3)为充分利用预训练教师网络样本分布及类别先验信息,构建预训练集样本类平衡分布损失{\mathcal{L}_{{\rm{ie}}{\text{-T}}}}. 定义p = \{ {p_1},{p_2}, … ,{p_k}\}k类样本集中的每类样本出现的概率,当各类样本为均匀分布时,即{p_k} = \dfrac{1}{K},所含信息量最大. 为保证教师网络判别结果的均衡性、多样性,充分利用预训练样本分布信息,以教师网络优化生成器在该类数据集下等概率生成各类样本,构建信息熵损失函数:

    {\mathcal{L}_{{\rm{ie}} {\text{-}} {\rm{T}}}} = - {H_{\inf {\rm{o}}}}\left(\frac{1}{N}\sum\limits_i {{\boldsymbol{y}}_i^{\rm{T}}} \right). (3)

    结合式(1)~(3),可得到用于优化辅助生成器{G_{\rm{T}}}的目标函数为

    \mathcal{L}_{{G}_{{\rm{T}}}}=\mathcal{L}_{{\rm{oh}}{{\text{-}}{\rm{T}}}}+\alpha \mathcal{L}_{\alpha {{\text{-}}{\rm{T}}}}+\beta \mathcal{L}_{{\rm{ie}}{{\text{-}}{\rm{T}}}}\text{,} (4)

    其中\alpha \beta 为平衡因子. 利用式(4)保证{G_{\rm{T}}}优化过程充分利用教师网络保存的训练样本分布等先验信息,即可获得更近似于真实数据的高质量伪样本数据集.

    根据2.1节所述的教师端生成器{G_{\rm{T}}}的优化过程,借助教师端判别器网络{N_{\rm{T}}}包含的真实样本先验信息. 然而,由于函数one_hot所构建的伪样本标签将带来大量噪音,当{G_{\rm{T}}}{N_{\rm{T}}}完全信任时,其优化过程将引入错误信息,使学生端判别器网络{N_{\rm{S}}}训练阶段难以生成与真实样本分布近似的伪样本集,影响学生网络判别准确率. 同时,当{N_{\rm{S}}}的训练将完全依赖于网络{G_{\rm{T}}}生成伪样本时将降低模型{N_{\rm{S}}}的泛化性.

    为解决上述问题,本文在学生网络端引入生成器{G_{\rm{S}}},如图2所示. 利用{G_{\rm{T}}}信息辅助{G_{\rm{S}}}优化,生成更接近真实分布且更具多样性的训练样本. 首先,双生成器{G_{\rm{T}}}{G_{\rm{S}}}通过随机初始样本同时生成伪样本矩阵{{\boldsymbol{X}}^{\left( {\rm{T}} \right)}}{{\boldsymbol{X}}^{\left( {\rm{S}} \right)}},其中,{{\boldsymbol{X}}^{\left( {\rm{T}} \right)}}通过{N_{\rm{T}}}计算并由式(4)构建损失反馈训练生成器{G_{\rm{T}}},生成新的教师端伪样本集{{\boldsymbol{X}}'^{\left( {\rm{T}} \right)}};其次,{{\boldsymbol{X}}^{\left({\rm{ S}} \right)}}同时经{N_{\rm{T}}}{N_{\rm{S}}}计算,为充分借助教师网络先验数据分布信息度量分布差异,利用式(5)优化{N_{\rm{S}}}

    {\mathcal{L}_{{\rm{oh}}{\text{-}}{\rm{S}}}} = \frac{1}{n}\sum\limits_i {{H_{{\rm{cross}}}}\left( {{N_{\rm{T}}}\left( {{{\boldsymbol{X}}^{\left( {\rm{T}} \right)}};{{\boldsymbol{\theta}} _{\rm{d}}}} \right),{N_{\rm{S}}}\left( {{{\boldsymbol{X}}^{\left( {\rm{S}} \right)}};{\boldsymbol{\theta}} _{\rm{d}}^{\left( {\rm{S}} \right)}} \right)} \right)} . (5)

    此时,利用初步训练得到的{N_{\rm{S}}}结合当前生成伪样本集{{\boldsymbol{X}}^{\left( {\rm{S}} \right)}}与式(4),构建反馈损失函数{\mathcal{L}'_{{G_{\rm{s}}}}} = {\mathcal{L}_{{\rm{oh}}{\text{-}}{\rm{S}}}} +\alpha {\mathcal{L}_{\alpha {\text{-}}{\rm{S}}}} + \beta {\mathcal{L}_{{\rm{ie}}{\text{-}}{\rm{S}}}},优化当前学生网络生成器{G_{\rm{S}}}. 该模型可保证教师网络与学生网络执行相同任务,提升学生网络学习能力. 同时,通过对学生网络优化避免对缺失真实标签判别结果的过分信任,降低生成器优化效果. 最后,{G_{\rm{S}}}生成新的学生端伪样本集{{\boldsymbol{X}}'^{\left( {\rm{S}} \right)}}. 为使GS获得更多样本先验信息保证生成样本与真实样本分布一致性,同时,保证生成伪样本多样性,提升学生网络模型泛化性,本文采用KL散度获得2个优化得到的伪样本集{{\boldsymbol{X}}'^{\left( {\rm{T}} \right)}}{{\boldsymbol{X}}'^{\left( {\rm{S}} \right)}}随分布差异,如式(6)所示:

    {\mathcal{L}_{{\rm{d}} {\text{-}} {\rm{KL}}}} = \sum\limits_{i = 1}^N {{G_{\rm{S}}}({\boldsymbol{x}}{'}_i^{\left( {\rm{S}} \right)}){1} {\text{b}}\frac{{{G_{\rm{S}}}({\boldsymbol{x}}{'}_i^{\left( {\rm{S}} \right)})}}{{{G_{\rm{T}}}({\boldsymbol{x}}{'}_i^{\left( {\rm{T}} \right)})}}} . (6)

    本文仅期望学生网络生成器{G_{\rm{S}}}所得的样本集{{\boldsymbol{X}}'^{\left( {\rm{S}} \right)}}在分布上与先验样本分布更为接近. 此时,构建学生网络生成器优化损失表达,如式(7)所示,实现最优化生成器{G_{\rm{S}}}的构建.

    {\mathcal{L}_{{G_{\rm{S}}}}} = {\mathcal{L}'_{{G_{\rm{S}}}}}{\text{ + }}\gamma {\mathcal{L}_{{\rm{d}} {\text{-}} {\rm{KL}}}}, (7)

    其中,\gamma 为平衡因子.

    本文利用优化得到的学生端生成器{G_{\rm{S}}},更新伪样本集{{\boldsymbol{X}}'^{\left( {\rm{S}} \right)}}作为训练数据辅助学生网络构建.

    教师网络{N_{\rm{T}}}与学生网络{N_{\rm{S}}}同时接受学生端生成器获得的优化为样本集{{\boldsymbol{X}}'^{\left( {\rm{S}} \right)}},由于模型差异,网络结构相对复杂的教师网络输出结果优于网络结构相对简单的学生网络. 为提升模型压缩效果,借助知识蒸馏技术,将二者softmax层上输出结果进行交叉熵函数计算,使学生网络的输出{\boldsymbol{y}}_i^{\left( {\rm{S}} \right)}更近似教师网络的输出{\boldsymbol{y}}_i^{\left( {\rm{T}} \right)},提升学生网络{N_{\rm{S}}}的性能. 知识蒸馏损失函数为

    {\mathcal{L}_{{\rm{KD}}}} = \frac{1}{N}\sum\limits_{i = 1}^N {{H_{{\rm{cross}}}}({\boldsymbol{y}}_i^{\left( {\rm{S}} \right)},{\boldsymbol{y}}_i^{\left( {\rm{T}} \right)})} . (8)

    结合伪样本训练,在此损失函数约束下,实现在相同任务下较为稀疏的大规模网络到紧凑小规模网络的压缩及知识蒸馏.

    本文在3个流行图像数据集上验证了所提出方法的有效性,并与近年Data-free环境下较为流行的知识蒸馏模型,包括DAFL, DFAD, RDSKD模型在精度、鲁棒性、泛化性上进行对比与分析. 同时,通过对模型消融实验结果的统计,讨论模型框架结构设计的合理性. 本文进一步设置实验数据,验证DG-DAFL模型的泛化性. 实验运行在Intel Core i7-8700及NVIDIA Geforce RTX 2070硬件环境,及Windows10操作系统、Python3语言环境、Pytorch深度学习框架上.

    本文为了更全面地验证模型效果,采用4种评价指标:准确率(Accuracy)、精确率(Precision)、召回率(Recall)、特异度(Specificity).

    准确率(Accuracy)指分类模型中正确样本量占总样本量的比重,其计算公式为

    Accuracy = \frac{{TP + TN}}{{TP + TN + FP + FN}}. (9)

    精确率(Precision)指分类结果预测为阳性的正确比重,计算公式为

    Precision = \frac{{TP}}{{TP + FP}}. (10)

    召回率(Recall)指真实值为阳性的正确比重,其计算公式为

    Recall = \frac{{TP}}{{TP + FN}}. (11)

    特异度(Specificity)指真实值为阳性的正确比重,其计算公式为

    S pecificity = \frac{{TN}}{{TN + FP}}. (12)

    式(9)~(12)中,TP为模型正确预测为正例样本量,TN为模型正确预测为反例样本量,FP为模型错误预测为正例样本量,FN为模型错误预测为反例样本量.

    本文引入双生成器端损失在充分利用教师网络先验样本分布信息条件下,保证生成样本多样性,如式(7)所示,其中\gamma 为平衡因子. 为保证实验的公平性,\gamma 值的选取采用确定范围\left\{ {0.01},{0.1},1,{10},{100} \right\}内值遍历选取方法,如图4中所示,\gamma 取值将对学生网络模型识别结果产生较大影响. 当\gamma {\text{ = }}10时,MNIST与USPS数据集均达到Accuracy统计的最高值. 因此,本文验证实验中的所有数据集,均设置\gamma {\text{ = }}10.

    图  4  参数\gamma 值对模型性能的影响
    Figure  4.  Effect of \gamma on model performance

    1)MNIST手写体数据集

    MNIST数据集为10分类手写体数据集,由像素大小为28×28的70000张图像组成,本文中随机选取60000张图像为训练数据集,10000张图像为测试数据集,部分样本可视化结构如图5所示.

    图  5  MNIST数据集中样本可视化
    Figure  5.  Sample visualization of MNIST dataset

    本数据集实验中,利用LeNet-5作为教师网络实现该数据集分类模型训练. 构建学生网络LeNet-5-half,其网络结构与教师网络相同,每层通道数相比教师网络少一半,计算成本相比教师网络少50%,可实现网络压缩. 表1中统计并对比了所提算法在MNIST数据集上的Accuracy值.

    表  1  MNIST数据集上的分类结果
    Table  1.  Classification Results on MNIST Dataset
    算法Accuracy
    教师网络0.9894
    KD[4]0.8678
    DAFL[5]0.9687±0.001
    DFAD[33]0.9596±0.0021
    RDSKD[34]0.9755±0.0024
    DG-DAFL0.9809±0.0009
    注:加粗为最优结果;“±”后的数值为多次实验的标准差.
    下载: 导出CSV 
    | 显示表格

    表1中对10次实验统计的均值可见,利用真实数据训练得到教师网络的Accuracy=0.989 4. 由噪声数据随机生成伪样本作为训练集,在教师网络指导下,利用知识蒸馏可得到Accuracy=0.8678的学生网络,该状态下仅利用教师网络前期训练得到的判别信息,不借助样本分布信息,难以达到满意的蒸馏效果. DAFL方法中,通过教师网络模型判别结果回传损失,优化生成器网络,生成与真实样本分布更为接近的伪样本数据,训练学生网络,模型Accuracy值可达到0.968 7. 本文提出的DG-DAFL方法相比DAFL方法,避免了单一生成器网络对教师网络在无标签伪样本集上判别结果过度信任所产生的无效先验优化失败问题,同时,学生网络端生成器在教师端生成器的辅助下产生更适合学生端生成器的训练样本,保证生成样本的多样性,提升识别泛化性. 同时,RDSKD模型通过增加正则化项提升样本多样性,针对不同类样本特征较为近似的MNIST数据集取得了比DAFL与DFAD模型更好的分类性能. DG-DAFL模型中,学生网络Accuracy值提升至0.9809,其网络性能十分接近教师网络,同时,根据10次实验运行结果的均值与方差可知DG-DAFL模型获得了更好的鲁棒性.

    2)AR人脸数据集

    AR数据集为包含100类的人脸数据集,由图像尺寸为120×165的2600张图片组成,其中前50类为男性样本,后50类为女性样本,每类包含26张人脸图,包括不同的面部表情、照明条件、遮挡情况,是目前使用最为广泛的标准数据集. 在实验中,本文将每类的20张图片作为训练集,剩余的6张作为测试集,通过此方式对网络性能进行评价. AR数据集可视化结果如图6所示.

    图  6  AR数据集的可视化结果
    Figure  6.  Sample visualization results of AR dataset

    本数据集实验中,利用ResNet34作为教师网络,ResNet18作为学生网络. ResNet34与ResNet18采用相同的5层卷积结构,ResNet34在每层卷积结构中的层数更多,其所消耗的计算成本更高;ResNet34的Flops计算量为 3.6 \times {10^9} ,ResNet18的Flops计算量为1.8 \times {10^9}. 表2中统计并对比了所提方法在AR数据集上的Accuracy结果.

    表  2  AR数据集上的分类结果
    Table  2.  Classification Results on AR Dataset
    算法Accuracy
    教师网络0.865
    DAFL[5]
    0.6767±0.0013
    DFAD[33]
    0.52±0.0032
    RDSKD[34]0.52±0.0026
    DG-DAFL0.7183±0.001
    注:加粗为最优结果;“±”后的数值为多次实验的标准差.
    下载: 导出CSV 
    | 显示表格

    实验统计结果如表2所示. 教师网络经包含真实标签数据集训练后Accuracy=0.865. Data-Free环境下,DAFL模型中经知识蒸馏后学生网络的Accuracy=0.6767. AR数据集相比MNIST数据集,图像类别数量提升,图像复杂度及细节增加,不同类别间样本特征分布更为近似,难以判别. DAFL模型中生成器优化过程完全依赖教师网络判别结果,导致生成大量用于训练学生网络的噪音样本,使学生网络判别准确率与鲁棒性下降. DFAD模型忽略教师网络对样本生成所提供的先验信息,难以获得与原训练样本分布更为近似的生成样本,极大影响学生网络识别准确率. RDSKD模型面对的复杂特征样本集同样面临未充分利用预训练教师网络样本先验信息,导致知识蒸馏效果下降,学生网络的Accuracy仅为0.52. 本文通过构建双生成器模型DG-DAFL,在充分利用教师网络的潜在样本先验知识的同时,构造生成器端损失,避免对误差样本信息过学习,生成更有效且与真实样本分布一致的伪样本. 在AR较为复杂的数据集上,本文所提出的DG-DAFL模型的Accuracy=0.7183.

    3)USPS 手写体数据集

    USPS数据集为10类别分类数据集,由像素大小为16×16的9298张灰度图像组成,该数据集相比于MNIST数据集包含的样本量更多,样本尺寸更小,且样本表达更为模糊、抽象,为识别带来了困难,USPS数据集可视化结果如图7所示. 本文实验中,随机选取7291张与2007张图像分别构建教师网络的训练集与测试集.

    图  7  USPS数据集的可视化结果
    Figure  7.  Sample visualization results of USPS dataset

    教师网络选择与MNIST数据集下相同的网络结构LeNet-5,学生网络结构为LeNet-5-half. 表3中统计并对比了所提出方法在USPS数据集上的Accuracy结果.

    表  3  USPS数据集上的分类结果
    Table  3.  Classification Results on USPS Dataset
    算法Accuracy
    教师网络0.96
    DAFL[5]
    0.9267±0.0021
    DFAD[33]
    0.8899±0.0024
    RDSKD[34]0.9073±0.0017
    DG-DAFL0.9302±0.0012
    注:加粗为最优结果;“±”后的数值为多次实验的标准差.
    下载: 导出CSV 
    | 显示表格

    表3可知,教师网络分类Accuracy=0.96,在此基础上实现DAFL模型. 学生网络的Accuracy=0.926 7. DFAD模型在USPS数据集上的Accuracy=0.8899,由于教师网络过度信任生成样本集中包含的噪音等样本,影响知识蒸馏效果及模型鲁棒性. RDSKD模型同样存在忽略生成样本质量等问题,降低学生网络准确率. DG-DAFL通过引入学生端生成器的双生成器方法,解决单生成器网络结构中学生网络训练过度依赖教师生成器网络样本产生的泛化性较低等问题. 同时,学生网络生成器所生成的数据在保证分布近似条件下的样本多样性,进一步提升学生网络识别泛化性的基础上,学生网络在USPS数据集下获得了更高的准确率及鲁棒性.

    1)DG-DAFL消融分析

    为进一步讨论所提DG-DAFL模型中学生端生成器{G_{\rm{S}}}优化过程的合理性及损失函数各部分的必要性,本节在MNIST数据集上实现消融实验并分析实验结果. 表4统计并对比了不同损失函数部分对Data-Free环境下模型准确率的影响.

    表  4  MNIST数据集上消融实验结果
    Table  4.  Ablation Experiment Results on MNIST Dataset
    伪标签损失信息熵损失特征损失伪样本KL散度损失Accuracy
    0.8687
    0.2336
    0.1140
    0.2167
    0.8711
    0.9758
    0.9800
    注:√表示该项存在.
    下载: 导出CSV 
    | 显示表格

    在消融实验中,利用真实数据训练的教师网络分类Accuracy=0.9839;学生端生成器{G_S}在没有任何损失函数优化的情况下,利用随机生成样本并结合教师网络知识蒸馏,Accuracy达到0.868 7. 若仅利用对随机伪样本判别结果所构造的任一损失函数,包括伪标签损失、信息熵损失、特征损失,优化学生网络生成器{G_S},均难以得到满意的判别结果,其主要原因在于学生网络判别器未经过真实样本训练不包含真实先验信息,难以指导生成器训练. 若仅利用双生成器端KL散度作为优化信息,教师端生成器{G_{\rm{T}}}经教师网络优化包含部分真实样本先验信息,可对{G_{\rm{S}}}生成样本产生一定的先验监督作用,辅助生成器{G_{\rm{S}}}生成相近的输出分布,在KL散度损失单独优化下,学生网络性能有小幅度提升. 当3种损失函数与生成器损失结合后,生成器{G_{\rm{S}}}获得更多样本先验信息,保证生成样本与真实样本的分布一致性,并保证生成伪样本的多样性,提升学生网络模型的准确率.

    2)DG-DAFL泛化性分析

    为验证所提出的DG-DAFL模型具有更好的泛化性,本文基于MNIST数据集,构建实验数据集MNIST-F(训练集Tra与测试集Te). 其中0~9为类别编号,由于样本类别编号1和7、0和8、6和9等具有判别特征上的相似性,将混淆分类模型,为识别带来难度. 本文缩小易混淆类别训练样本规模,具体将原始数据集中的训练样本类别编号为1,6,8的样本量减半,测试数据量保持不变,其详细描述如表5所示,表5中nTra与nTe分别为原始训练集与原始测试集.

    表  5  泛化性测试数据集描述
    Table  5.  Description of Generalizability Test Dataset
    类别编号nTranTeTraTe
    059235923980980
    13371674211351135
    25958595810321032
    36131613110101010
    458425842982982
    554215421892892
    629595918958968
    76265626510281028
    829255851974974
    95949594910091009
    下载: 导出CSV 
    | 显示表格

    数据集MNIST-F实验中,教师网络结构为LeNet-5,学生网络结构为LeNet-5-half. 本文分别统计及对比了DAFL模型与所提出DG-DAFL模型的分类Accuracy,结果如表6所示.

    表  6  MNIST-F数据集上的分类结果
    Table  6.  Classification Results on MNIST-F Dataset
    算法Accuracy
    教师网络0.9897
    DAFL[5]0.9425
    DG-DAFL0.9695
    下载: 导出CSV 
    | 显示表格

    表6所示的是不同算法在MNIST-F数据集下的泛化性测试结果. DAFL算法的Accuracy=0.9425,DG-DAFL算法的Accuracy=0.9695,相比在MNIST数据集下的测试结果,DAFL算法的Accuracy值下降0.0262,DG-DAFL的算法Accuracy值下降0.0114,当在易混淆类别训练不足的情况下,本文所提出的DG-DAFL模型相比DAFL模型具有更好的泛化性和鲁棒性. DG-DAFL模型中的学生网络{N_{\rm{S}}}的训练数据不完全依赖于教师端生成器{G_{\rm{T}}},避免在DAFL模型下由于函数one_hot构建的伪样本标签带来的大量噪声,解决学生网络{N_{\rm{S}}}鲁棒性的问题. 为便于观察与分析,本文统计并对比了DAFL与DG-DAFL模型在MNIST-F数据集上的其他评价标准结果,如表6表7所示.

    表  7  DAFL模型针对不同类别统计结果
    Table  7.  Statistical Results of DAFL Model for Different Categories
    类别编号AccuracyRecallSpecificity
    00.9930.9570.999
    10.9880.9890.998
    20.9280.9870.991
    30.9100.9880.989
    40.9860.9870.998
    50.9080.9520.991
    60.9950.9560.999
    70.9720.9790.997
    80.9890.8600.999
    90.9730.9660.997
    注:加粗为最优结果.
    下载: 导出CSV 
    | 显示表格

    表7表8可知,泛化性测试下DG-DAFL模型总体上比DAFL模型在精确率、召回率、特异度指标上均有所提升. 类别1,6,8中训练样本量减少为一半的情况下,本文所提出的模型DG-DAFL在这3类上均获得了更好的性能. 原因在于DG-DAFL模型下,训练数据由双生成器生成,其更具多样性,避免了单一生成器容易导致生成数据泛化性低的问题.

    表  8  DG-DAFL模型针对不同类别统计结果
    Table  8.  Statistical Results of DG-DAFL Model for Different Categories
    类别编号AccuracyRecallSpecificity
    00.9890.9890.999
    10.9820.9960.998
    20.9540.9950.994
    30.9370.9940.993
    40.9890.9830.999
    50.9680.9640.997
    60.9960.9731.000
    70.9820.9820.998
    80.9970.8781.000
    90.9580.9830.995
    注:加粗为最优结果.
    下载: 导出CSV 
    | 显示表格

    图8~10通过MNIST-F数据集下各类别的分类结果样本量及误分类样本量的混淆矩阵,可更为清晰地观察到DG-DAFL模型的效果更加接近教师网络,分类效果较优. 在真实标签为0,5,6,8,9上的分类中,DAFL模型比DG-DAFL模型出现更多错误分类,其原因为DAFL模型的训练数据仅依赖于教师网络,教师网络生成的伪标签带来大量噪声影响生成器性能,降低学生网络性能. DG-DAFL模型中学生网络的训练数据取决于教师端生成器和学生端生成器2方面的影响,避免过度依赖教师网络端生成器的情况,使得在DG-DAFL模型的训练过程中,生成训练数据更加接近真实数据,且保证生成图像的多样性. 同时,可观察到DAFL模型在易混淆的类别中将1类样本被误分类为7类样本,0,6,8类样本由于模型泛化性较低而被互相混淆,产生错误的分类.

    图  8  教师网络泛化性测试的混淆矩阵
    Figure  8.  Confusion matrix for teacher network generalization test
    图  9  DAFL模型泛化性测试的混淆矩阵
    Figure  9.  Confusion matrix for DAFL generalization test
    图  10  DG-DAFL模型泛化性测试的混淆矩阵
    Figure  10.  Confusion matrix for DG-DAFL generalization test

    本文针对Data-Free环境中网络压缩及知识蒸馏问题,借助DAFL模型通过构建生成器获得伪训练样本的学习方式,提出DG-DAFL网络框架. 该框架设计双生成器网络结构,保证教师网络与学生网络完成一致学习任务,并实现样本生成器与教师网络分离,避免DAFL模型中生成器完全信任教师网络判别结果,产生失效优化问题. 同时,在学生网络生成器训练过程中,构造双生成器端伪样本分布损失,在充分利用教师网络潜在样本分布先验信息的同时避免过度依赖,生成更具多样性的伪样本集. 本文在3个流行的数据集上验证了算法的有效性,并构造数据集进一步分析了算法的泛化性及鲁棒性. 然而,Data-Free环境中生成的伪训练样本的质量将影响学生网络性能,接下来本文工作将围绕充分挖掘教师网络预训练样本结构特征等先验知识,构建更高质量的学生网络训练样本集. DG-DAFL方法代码及模型已开源:https://github.com/LNNU-computer-research-526/DG-DAFL.git.

    作者贡献声明:张晶主要负责模型提出、算法设计及论文撰写;鞠佳良负责算法实现、实验验证及论文撰写;任永功负责模型思想设计及写作指导.

  • 图  1   基于I/O代理策略的LICOM数据同化程序流程图

    Figure  1.   Flowchart of LICOM data assimilation pragram based on the I/O agents strategy

    图  2   I/O代理1000核下各个进程的同化时间

    Figure  2.   The assimilation time of processes under 1000 cores for the I/O agents program

    图  3   不同核数下I/O代理程序读取64.8 GB数据的时间

    Figure  3.   The time for the I/O agents program to read 64.8 GB of data under different numbers of cores

    图  4   不同核数下I/O代理程序的通信时间

    Figure  4.   Communication time of I/O agents program under different numbers of cores

    图  5   不同核数下I/O代理程序的写回时间

    Figure  5.   Write back time of I/O agents program under different cores

    图  6   总体技术路线

    Figure  6.   General technical route

    图  7   2层负载均衡

    Figure  7.   Two-layer load balancing

    图  8   I/O代理程序的读取策略

    Figure  8.   Reading strategy for the I/O agents pragram

    图  9   基于OST的读取策略

    Figure  9.   Reading strategy based on OST

    图  10   超算集群计算节点布局与通信方式

    Figure  10.   The layout and communication mode of supercomputing cluster computing node

    图  11   3层通信

    Figure  11.   Three layers of communication

    图  12   基于环的分发策略

    Figure  12.   Ring-based distribution strategy

    图  13   读取、通信与计算重叠

    Figure  13.   The overlap between reading, communication and computation

    图  14   避免读取、通信冗余策略

    Figure  14.   The strategy of avoiding reading and communication redundancy

    图  15   2种算法读取时间对比

    Figure  15.   Comparison of reading time between the two algorithms

    图  16   2种算法通信时间对比

    Figure  16.   Comparison of communication time between the two algorithms

    图  17   2种算法同化时间对比

    Figure  17.   Comparison of assimilation time between the two algorithms

    图  18   优化前后预同化时间对比

    Figure  18.   Comparison of pre-assimilation time before and after optimization

    图  19   天河上千核程序整体运行时间

    Figure  19.   The overall running time of thousand cores program on Tianhe

    图  20   曙光上千块DCU卡程序整体运行时间

    Figure  20.   The overall running time of thousand DCU card program on Sugon

    表  1   天河上使用的数据集参数

    Table  1   Parameters of Data Set Used on Tianhe

    分辨率/(°)网格精度静态样本数观测数据数数据大小/GB
    0.13600×1800×551239101764.8
    下载: 导出CSV

    表  2   曙光7000上使用的数据集参数

    Table  2   Parameters of Data Set Used on Sugon 7000

    分辨率/(°)网格精度静态样本数观测数据数数据大小/GB
    0.13600×1800×55120391017648
    下载: 导出CSV

    表  3   2种算法的写回时间对比

    Table  3   Comparison of Write Back Time Between the Two Algorithms

    核心数优化前写回时间/s优化后写回时间/s
    1000275.182.58
    2000204.172.50
    3000245.142.69
    4000285.722.51
    下载: 导出CSV
  • [1]

    De Luca P, Galletti A, Giunta G, et al. Recursive filter based GPU algorithms in a data assimilation scenario[J]. Journal of Computational Science, 2021, 53: 101339

    [2]

    Teruzzi A, Di Cerbo P, Cossarini G, et al. Parallel implementation of a data assimilation scheme for operational oceanography: The case of the MedBFM model system[J]. Computers & Geosciences, 2019, 124: 103−114

    [3]

    Yan Hongxiang, Zarekarizi M, Moradkhani H. Toward improving drought monitoring using the remotely sensed soil moisture assimilation: A parallel particle filtering framework[J]. Remote Sensing of Environment, 2018, 216: 456−471 doi: 10.1016/j.rse.2018.07.017

    [4]

    Molteni F. Atmospheric simulations using a GCM with simplified physical parametrizations. I: Model climatology and variability in multi-decadal experiments[J]. Climate Dynamics, 2003, 20(2): 175−191 doi: 10.1007/s00382-002-0268-2

    [5]

    Emerick A A, Reynolds A C. Ensemble smoother with multiple data assimilation[J]. Computers & Geosciences, 2013, 55: 3−15

    [6]

    Rodell M, Houser P R, Jambor U E A, et al. The global land data assimilation system[J]. Bulletin of the American Meteorological Society, 2004, 85(3): 381−394 doi: 10.1175/BAMS-85-3-381

    [7]

    Houtekamer P L, Mitchell H L. A sequential ensemble Kalman filter for atmospheric data assimilation[J]. Monthly Weather Review, 2001, 129(1): 123−137 doi: 10.1175/1520-0493(2001)129<0123:ASEKFF>2.0.CO;2

    [8]

    Evensen G. The ensemble Kalman filter: Theoretical formulation and practical implementation[J]. Ocean Dynamics, 2003, 53(4): 343−367 doi: 10.1007/s10236-003-0036-9

    [9]

    Bei Naifang, Foy B, Lei Wenfang, et al. Using 3DVAR data assimilation system to improve ozone simulations in the Mexico City basin[J]. Atmospheric Chemistry and Physics, 2008, 8(24): 7353−7366 doi: 10.5194/acp-8-7353-2008

    [10]

    Li Yongzuo, Wang Xuguang, Xue Ming. Assimilation of radar radial velocity data with the WRF hybrid ensemble-3DVAR system for the prediction of hurricane Ike (2008)[J]. Monthly Weather Review, 2012, 140(11): 3507−3524 doi: 10.1175/MWR-D-12-00043.1

    [11]

    Clayton A M, Lorenc A C, Barker D M. Operational implementation of a hybrid ensemble/4D-Var global data assimilation system at the met office[J]. Quarterly Journal of the Royal Meteorological Society, 2013, 139(675): 1445−1461 doi: 10.1002/qj.2054

    [12]

    Powell B S, Arango H G, Moore A M, et al. 4DVAR data assimilation in the intra-Americas sea with the regional ocean modeling system[J]. Ocean Modelling, 2008, 25(3/4): 173−188

    [13]

    Clark C, Harrison D E, Johnson M, et al. An overview of global observing systems relevant to GODAE[J]. Oceanography, 2009, 22(3): 22−33 doi: 10.5670/oceanog.2009.63

    [14]

    Wu Junjie, Liu Yong, Zhang Baida, et al. A benchmark test of boson sampling on Tianhe-2 supercomputer[J]. National Science Review, 2018, 5(5): 715−720 doi: 10.1093/nsr/nwy079

    [15]

    Xue Wei, Yang Chao, Fu Haohuan, et al. Ultra-scalable CPU-MIC acceleration of mesoscale atmospheric modeling on Tianhe-2[J]. IEEE Transactions on Computers, 2014, 64(8): 2382−2393

    [16]

    Zhang Xianyi, Yang Chao, Liu Fangfang, et al. Optimizing and scaling HPCG on Tianhe-2: Early experience[C]//Proc of the 14th Int Conf on Algorithms and Architectures for Parallel Processing. Cham, Switzerland: Springer, 2014: 28−41

    [17]

    Xue Wei, Yang Chao, Fu Haohuan, et al. Enabling and scaling a global shallow-water atmospheric model on Tianhe-2[C]//Proc of the 28th IEEE Int Parallel and Distributed Processing Symp. Piscataway, NJ: IEEE, 2014: 745−754

    [18]

    Chen Cheng, Du Yunfei, Jiang Hao, et al. HPCG: Preliminary evaluation and optimization on Tianhe-2 CPU-only nodes[C]//Proc of the 26th IEEE Int Symp on Computer Architecture and High Performance Computing. Piscataway, NJ: IEEE, 2014: 41−48

    [19]

    Liao Xiangke, Xiao Liquan, Yang Canqun, et al. MilkyWay-2 supercomputer: System and application[J]. Frontiers of Computer Science, 2014, 8(3): 345−356 doi: 10.1007/s11704-014-3501-3

    [20]

    Li Dali, Xu Chuanfu, Wang Yongxian, et al. Parallelizing and optimizing large-scale 3D multi-phase flow simulations on the Tianhe-2 supercomputer[J]. Concurrency and Computation: Practice and Experience, 2016, 28(5): 1678−1692 doi: 10.1002/cpe.3717

    [21]

    Chow E, Liu Xing, Misra S, et al. Scaling up Hartree-Fock calculations on Tianhe-2[J]. The International Journal of High Performance Computing Applications, 2016, 30(1): 85−102 doi: 10.1177/1094342015592960

    [22]

    Xiao Junmin, Wang Shijie, Wan Weiqiang, et al. S-EnKF: Co-designing for scalable ensemble Kalman filter[C]//Proc of the 24th Symp on Principles and Practice of Parallel Programming. New York: ACM, 2019: 15−26

    [23] 管志斌,肖俊敏,季统凯,等. 不同矩阵分解方法对海洋数据同化的影响[J]. 计算机科学与探索,2019,13(1):147−157 doi: 10.3778/j.issn.1673-9418.1712001

    Guan Zhibing, Xiao Junmin, Ji Tongkai, et al. The impact of different matrix decomposition methods on ocean data assimilation[J]. Journal of Frontiers of Computer Science and Technology, 2019, 13(1): 147−157 (in Chinese) doi: 10.3778/j.issn.1673-9418.1712001

    [24]

    Xiao Junmin, Zhang Guizhao, Gao Yanan, et al. Fast data-obtaining algorithm for data assimilation with large data set[J]. International Journal of Parallel Programming, 2020, 48(4): 750−770 doi: 10.1007/s10766-019-00653-y

    [25]

    Liu Hailong, Lin Pengfei, Zheng Weipeng, et al. A global eddy-resolving ocean forecast system in China-LICOM forecast system (LFS)[J/OL]. Journal of Operational Oceanography, 2021: 1−13[2021-05-19].https://www.tandfonline.com/doi/full/10.1080/1755876X.2021.1902680

    [26]

    Lin Pengfei, Yu Zhipeng, Liu Hailong, et al. LICOM model datasets for the CMIP6 ocean model intercomparison project[J]. Advances in Atmospheric Sciences, 2020, 37(3): 239−249 doi: 10.1007/s00376-019-9208-5

    [27]

    Zou Liwei, Zhou Tianjun, Tang Jianping, et al. Introduction to the regional coupled model WRF4-LICOM: Performance and model intercomparison over the western north pacific[J]. Advances in Atmospheric Sciences, 2020, 37(8): 800−816 doi: 10.1007/s00376-020-9268-6

    [28] 万威强,肖俊敏,洪学海,等. 面向大规模海洋数据同化算法的并行实现及优化[J]. 计算机工程与科学,2019,41(5):765−772 doi: 10.3969/j.issn.1007-130X.2019.05.001

    Wan Weiqiang, Xiao Junmin, Hong Xuehai, et al. Parallel implementation and optimization of large scale ocean data assimilation algorithm[J]. Computer Engineering & Science, 2019, 41(5): 765−772 (in Chinese) doi: 10.3969/j.issn.1007-130X.2019.05.001

    [29]

    Nino-Ruiz E D, Sandu A, Deng X. A parallel implementation of the ensemble Kalman filter based on modified Cholesky decomposition[J]. Journal of Computational Science, 2019, 36: 100654

    [30]

    Thakur R, Gropp W, Lusk E. On implementing MPI-IO portably and with high performance[C]//Proc of the 6th Workshop on I/O in Parallel and Distributed Systems. New York: ACM, 1999: 2332

    [31]

    Thakur R, Lusk E, Gropp W. Users guide for ROMIO: A high-performance, portable MPI-IO implementation[R]. Chicago, Illinois: Argonne National Lab, 1997

    [32]

    Prost J P, Treumann R, Hedges R, et al. MPI-IO/GPFS, an optimized implementation of MPI-IO on top of GPFS[C]//Proc of the 15th ACM/IEEE Conf on Supercomputing. Piscataway, NJ: IEEE, 2001: 58−58

    [33]

    Liu Weifeng, Ureña I A C, Gerndt M, et al. Automatic MPI-IO tuning with the periscope tuning framework[C]//Proc of the 28th IEEE Int Parallel & Distributed Processing Symp Workshops. Piscataway, NJ: IEEE, 2014: 352−360

    [34]

    Puri S, Paudel A, Prasad S K. MPI-Vector-IO: Parallel I/O and partitioning for geospatial vector data[C/OL]//Proc of the 47th Int Conf on Parallel Processing. New York: ACM, 2018[2021-04-15].https://dl.acm.org/doi/abs/10.1145/3225058.3225105

    [35] 何卫列. 基于 Linux 集群架构的 MPI 点对点通信研究[J]. 沈阳航空工业学院学报,2007,24(3):61−63

    He Weilie. MPI point to point communication on Linux cluster architecture[J]. Journal of Shenyang Aerospace University, 2007, 24(3): 61−63 (in Chinese)

    [36] 王巍,李旺. 基于 Lustre 文件系统的 MPI-IO 编程接口改进[J]. 电子技术应用,2012,38(5):128−131 doi: 10.3969/j.issn.0258-7998.2012.05.050

    Wang Wei, Li Wang. Improvement of MPI-IO programming interface based on Lustre file system[J]. Application of Electronic Technique, 2012, 38(5): 128−131 (in Chinese) doi: 10.3969/j.issn.0258-7998.2012.05.050

    [37]

    Tsujita Y, Hori A, Ishikawa Y. Striping layout aware data aggregation for high performance I/O on a Lustre file system[C]//Proc of the 17th Int Conf on High Performance Computing. Cham, Switzerland: Springer, 2015: 282−290

    [38]

    Tsujita Y, Hori A, Kameyama T, et al. Topology-aware data aggregation for high performance collective MPI-IO on a multi-core cluster system[C]//Proc of the 4th Int Symp on Computing and Networking (CANDAR). Piscataway, NJ: IEEE, 2016: 37−46

    [39]

    Yu Weikuan, Vetter J, Canon R S, et al. Exploiting Lustre file joining for effective collective IO[C]//Proc of the 7th IEEE Int Symp on Cluster Computing and the Grid (CCGrid'07). Piscataway, NJ: IEEE, 2007: 267−274

    [40]

    Dickens P M, Logan J. A high performance implementation of MPI-IO for a Lustre file system environment[J]. Concurrency and Computation: Practice and Experience, 2010, 22(11): 1433−1449

    [41]

    Logan J, Dickens P. Towards an understanding of the performance of MPI-IO in Lustre file systems[C]//Proc of 2008 IEEE Int Conf on Cluster Computing. Piscataway, NJ: IEEE, 2008: 330−335

    [42]

    Dickens P, Logan J. Towards a high performance implementation of MPI-IO on the Lustre file system[C]//Proc of OTM Confederated Int Conf on the Move to Meaningful Internet Systems. Berlin: Springer, 2008: 870−885

  • 期刊类型引用(2)

    1. 邱紫韵. 基于节点重要性的端到端信息流控制方法. 河南科技学院学报(自然科学版). 2025(01): 58-65 . 百度学术
    2. 牛月. 计算机技术在办公自动化中的应用. 科技创新与应用. 2024(08): 187-190 . 百度学术

    其他类型引用(4)

图(20)  /  表(3)
计量
  • 文章访问数:  172
  • HTML全文浏览量:  62
  • PDF下载量:  86
  • 被引次数: 6
出版历程
  • 收稿日期:  2021-11-29
  • 修回日期:  2022-06-18
  • 网络出版日期:  2023-02-26
  • 刊出日期:  2023-05-11

目录

/

返回文章
返回