Processing math: 2%
  • 中国精品科技期刊
  • CCF推荐A类中文期刊
  • 计算领域高质量科技期刊T1类
高级检索

考虑长度匹配的快速单通量量子电路布线算法

刘耿耿, 余延涛, 周茹平, 魏榕山, 徐宁

刘耿耿, 余延涛, 周茹平, 魏榕山, 徐宁. 考虑长度匹配的快速单通量量子电路布线算法[J]. 计算机研究与发展. DOI: 10.7544/issn1000-1239.202440065
引用本文: 刘耿耿, 余延涛, 周茹平, 魏榕山, 徐宁. 考虑长度匹配的快速单通量量子电路布线算法[J]. 计算机研究与发展. DOI: 10.7544/issn1000-1239.202440065
Liu Genggeng, Yu Yantao, Zhou Ruping, Wei Rongshan, Xu Ning. Rapid Single-Flux-Quantum Circuit Routing Algorithm Considering Length Matching[J]. Journal of Computer Research and Development. DOI: 10.7544/issn1000-1239.202440065
Citation: Liu Genggeng, Yu Yantao, Zhou Ruping, Wei Rongshan, Xu Ning. Rapid Single-Flux-Quantum Circuit Routing Algorithm Considering Length Matching[J]. Journal of Computer Research and Development. DOI: 10.7544/issn1000-1239.202440065
刘耿耿, 余延涛, 周茹平, 魏榕山, 徐宁. 考虑长度匹配的快速单通量量子电路布线算法[J]. 计算机研究与发展. CSTR: 32373.14.issn1000-1239.202440065
引用本文: 刘耿耿, 余延涛, 周茹平, 魏榕山, 徐宁. 考虑长度匹配的快速单通量量子电路布线算法[J]. 计算机研究与发展. CSTR: 32373.14.issn1000-1239.202440065
Liu Genggeng, Yu Yantao, Zhou Ruping, Wei Rongshan, Xu Ning. Rapid Single-Flux-Quantum Circuit Routing Algorithm Considering Length Matching[J]. Journal of Computer Research and Development. CSTR: 32373.14.issn1000-1239.202440065
Citation: Liu Genggeng, Yu Yantao, Zhou Ruping, Wei Rongshan, Xu Ning. Rapid Single-Flux-Quantum Circuit Routing Algorithm Considering Length Matching[J]. Journal of Computer Research and Development. CSTR: 32373.14.issn1000-1239.202440065

考虑长度匹配的快速单通量量子电路布线算法

基金项目: 国家自然科学基金项目(62372109);福建省杰出青年科学基金项目(2023J06017).
详细信息
    作者简介:

    刘耿耿: 1988年生. 博士,教授,博士生导师,CCF高级会员. 主要研究方向为微流控生物芯片和集成电路的设计自动化

    余延涛: 2000年生. 硕士研究生,CCF学生会员. 主要研究方向为超大规模集成电路布线

    周茹平: 1998年生. 博士研究生,CCF学生会员. 主要研究方向为超大规模集成电路布线、时钟树综合

    魏榕山: 1980年生. 博士,教授,博士生导师. 主要研究方向为智能传感器芯片设计、面向深度学习等应用的人工智能芯片设计

    徐宁: 1968年生. 博士,教授,博士生导师,CCF高级会员. 主要研究方向为电子设计自动化、集成电路设计自动化和人工智能

    通讯作者:

    魏榕山(wrs08@fzu.edu.cn

  • 中图分类号: TP391

Rapid Single-Flux-Quantum Circuit Routing Algorithm Considering Length Matching

Funds: This work was supported by the National Natural Science Foundation of China (62372109) and the Fujian Science Foundation for Distinguished Young Scholars (2023J06017).
More Information
    Author Bio:

    Liu Genggeng: born in 1988. PhD, professor, PhD supervisor, senior member of CCF. His main research interests include design automation for microfluidic biochips and integrated circuits

    Yu Yantao: born in 2000. Master postgraduate, student member of CCF. His main research interests include physical design of rapid single-flux-quantum circuit and VLSI routing

    Zhou Ruping: born in 1998. PhD candidate, student member of CCF. Her main research interests include VLSI routing, clock tree synthesis

    Wei Rongshan: born in 1980. PhD, professor, PhD supervisor. His main research interests include intelligent sensor chip design, artificial intelligence chip design for deep learning and other applications

    Xu Ning: born in 1968. PhD, professor, PhD supervisor, senior member of CCF. His main research interests include electronic design automation, design automation for integrated circuits and artificial intelligence

  • 摘要:

    由于快速单通量量子 (rapid single-flux-quantum, RSFQ)电路的高频特性,对电路的版图设计构成了巨大挑战. 针对RSFQ电路的高频特性带来的电路时延问题,可以在布线阶段通过使用延时元件如无源传输线来解决. 因为无源传输线的时延与它的长度近似成正比,且传输线的功耗不随着线长增加而增大,所以对于快速单通量量子电路而言长度匹配布线是一个非常重要的问题. 为此,提出了一种高效的考虑长度匹配的RSFQ电路布线算法,包括以下关键策略:1) 在生成初始路径时,提出了一种迂回布线的方法,在不改变初始布线空间的情况下,满足无源传输线的部分长度匹配;2) 提出了一种基于区域感知的迭代资源插入策略,减少需要添加的额外资源区域;3) 提出了一种考虑阻塞代价的长度匹配驱动布线策略,提高了对布线空间的资源利用. 实验结果表明所提算法与现有的多端布线算法相比,布线所需的区域面积减少了8%,运行时间减少了36%,从而取得快速且高质量的布线结果.

    Abstract:

    Because of the high frequency characteristics of rapid single-flux quantum circuits (RSFQ), it poses a great challenge to circuit layout design. In order to solve the circuit delay problem caused by the high frequency characteristics of RSFQ, delay elements such as passive transmission line can be used in the routing stage. The delay of a passive transmission line is roughly proportional to its length, and the power consumption of the passive transmission line does not increase with the increase of the wirelength, so length matching routing is a crucial problem for RSFQ circuits. Therefore, this paper proposes an efficient RSFQ circuit routing algorithm considering length matching, including the following key strategies: 1) when generating the initial path, a method of detour routing is presented to meet the partial length matching of passive transmission lines without changing the initial routing space; 2) an iterative resource insertion algorithm based on region-awareness is utilized to reduce the area of additional resources needed to be added; 3) a length-matching driven routing algorithm considering blocking cost is designed, which improves the resource utilization of routing space. Experimental results show that, compared with existing multi-terminal routing algorithms, the proposed algorithm reduces the area required for routing by 8% and the running time by 36%, thus achieving fast and high-quality routing results.

  • 行人重识别(person re-identification,ReID)任务旨在从互不重叠的摄像头收集的图库中匹配与给定查询图像身份相同的行人图像[1-2]. 近些年以来,随着强大的深度卷积神经网络(convolutional neural network,CNN)的成功应用,全监督场景下的行人重识别任务取得了快速的发展[3-5]. 但随之而来的是,现有基于模型层面改进的方法在效果上基本达到瓶颈[6-7]. 为了进一步提升模型性能以及考虑到收集有标记的虚拟数据不需要耗费人力和物力成本,本文提出将大规模虚拟数据集与真实世界数据集结合来训练行人重识别模型的方法,从而克服因真实世界数据匮乏造成的模型过拟合于训练集,而在测试集上表现不佳的问题. 然而,虚拟数据集和真实世界数据集往往存在着较大的领域差异,即这2个数据分布之间差异较大,如图1所示. 直接将虚拟数据和真实数据混合往往会给模型的学习带来困惑并减慢收敛速度,从而无法在真实世界的数据集上取得很好的性能,甚至可能对模型的性能带来损害.

    图  1  虚拟数据集和真实数据集领域差异示意图
    Figure  1.  Illustration of domain discrepancy between virtual dataset and real dataset

    除此之外,如图2所示,行人重识别任务的另一大挑战是,在不同摄像头下拍摄出的行人图像通常包含由背景、视角、光照、分辨率、人体姿势等一系列变化引起的显著的类内差异(intra-class variation),这些类内差异往往会对度量不同摄像头下同一身份的相似性带来不利影响,从而给现有的研究工作带来了巨大的挑战. 因此,如何更好地利用大规模的有标记的虚拟数据,使其帮助模型从更丰富多样的数据中学习得到摄像头差异无关的特征表示(camera-invariant feature representations),并提高模型在真实数据上的泛化性能也是本文研究的重点.

    图  2  同一人在不同摄像头捕捉下的类内差异示意图
    Figure  2.  Illustration of intra-class variation of the same person captured under different cameras

    针对上述问题,本文提出了基于摄像头感知的对抗迁移学习方法,通过同时建模领域差异和多摄像头间类内差异,使模型从更丰富多样的数据中学习得到更鲁棒的摄像头差异无关的特征表示. 具体地说,受域对抗迁移网络[8](domain-adversarial migration network,DANN)将“对抗机制”引入神经网络训练方法的启发(DANN通过将特征提取器与领域判别器进行对抗训练,使得特征提取器学习到领域无关(domain-invariant)的特征),为了使虚拟数据集的分布尽可能向真实世界数据集靠拢从而消除领域差异,本文将对抗迁移学习引入行人重识别方法. 考虑到同一身份一般是由具有不同参数和环境的多个摄像头记录,从而具有显著不同的外观表现. 由此造成的摄像头之间的分布差异,也会使得识别同一身份的样本以及优化类内特征的相似性变得更加困难. 所以在DANN迷惑领域判别器的基础上,本文进一步提出使判别器无法分辨特征提取器处理后的数据(图像的特征表示)来自哪个真实领域的摄像头,从而获得摄像头差异无关的特征表示.

    此外,为了缓解虚拟数据集夹带的误导信息所带来的不利影响和对抗训练中真实世界数据集的数据分布向虚拟数据集的数据分布发生偏移的问题,从而提高模型在真实数据集上的测试效果,本文引入一个只由真实数据集训练的辅助网络去约束混合数据训练的主网络对真实数据的预测概率. 本文的主要贡献包括4个方面:

    1)引入少代价的标记虚拟数据集进行辅助训练的虚实结合的行人重识别框架,以此缓解由于数据匮乏导致的全监督行人重识别任务达到瓶颈的问题;

    2)提出一种基于摄像头感知的非对称领域对抗模块,可以同时建模虚拟数据集和真实数据集的领域差异和由不同摄像头拍摄带来的类内差异,使模型从更丰富多样的数据中迁移有效的知识到真实场景中和学到摄像头差异无关的特征表示;

    3)引入辅助网络进行训练,将知识蒸馏应用到学习框架中,实现参照真实数据分布空间的目标,以缓解虚拟数据集夹带的误导信息带来的不利影响和真实数据集的分布偏移问题;

    4)在2个公开的行人重识别数据集上进行了实验验证和分析,实验结果表明我们提出的基于知识迁移的虚实行人重识别方法可以有效地从丰富的数据中学到摄像头差异无关的特征表示,以提升模型在真实场景下的泛化性能.

    在监控系统中,受背景、视角、光照、分辨率、人体姿势等一系列变化的影响,同一身份的行人图像通常具有显著的类内差异,这些类内差异往往会对度量不同摄像头下同一身份的相似性带来不利影响,从而给现有的研究工作带来了巨大的挑战. 任务发展的初期,研究人员使用人工设计的特征进行行人重识别[9-12]. 近年来,随着深度学习技术的快速发展,基于深度学习的方法在行人重识别任务中占据主导地位,进而得到了广泛的应用和研究[3-7,13]. 本文从3个方面介绍本文任务的相关工作.

    由于人体特征呈高度结构化,区分相应的身体部位可以有效地确定身份. 许多最近的工作[6,14-16]聚合来自不同身体部位和全局线索的显著特征用于人物重新识别. 其中,基于局部特征的方法[5-6,16]实现了最先进的性能,该方法将输入图像水平分成固定数量的条带,并从这些条带中聚合特征. 但从多个分支聚合特征向量网络结构较为复杂.

    此外,区分行人图像的有效特征表示也是行人重识别任务中的一项重要挑战. 为了处理不完美的边界框检测和身体部位错位,许多工作[11,17-19]利用注意力机制来捕捉和聚焦于显示信息性特征(例如,空间位置和人体姿态)并抑制噪声部分(例如,背景和照明). 显著性加权[20-21]是解决这个问题的一种有效方法. 受到注意力模型的启发,Zhao等人[20]提出了针对行人重识别的部分对齐表示. 在类似的思想下,一些工作[21-22]也表现出了优越的泛化性能,它们将区域注意力选择子网络融合到行人重识别模型中. 为了学习对姿态变化具有鲁棒性的特征表示,姿态引导的注意力方法[23-24]借助姿态估计和人体分割网络将不同的身体部位特征融合在一起,以利于提升模型的性能.

    由于摄像头标记信息在行人重识别任务中较为容易获得,且不同摄像头下同一身份的行人图像通常受类内差异的影响难以进行相似度度量. 近年来,一些研究[25-26]通过摄像头标记信息学习摄像头风格的变化,来解决跨摄像头检索任务中的图像风格变化产生类内差异的问题. 例如,Zhong等人[25]提出了一种平滑相机风格差异的方法. 利用CycleGAN将训练图像的风格样式转换到每个摄像头的风格上,生成后的数据样本与原始训练样本一起形成增强的训练集. 此外,Zhuang等人[26]提出了一种基于摄像头的批量归一化方法,用于解决行人重识别中的分布差异问题. 在训练中通过对每个摄像头进行归一化,实现映射所有摄像头下的数据到共享空间,从而使模型更好地适应新的摄像头.

    为了进一步提高检索精度,一些研究工作还采用了重新排序策略[27-28]和使用特定人物属性进行推断[29]. 一些常用的数据增强方法,如随机擦除[30]和Cutout[31]也被广泛使用. 值得注意的是,数据增强方法可以与我们的方法结合使用.

    对抗迁移学习中一类很重要的算法就是基于生成对抗的. 随着生成对抗网络(generative adversarial networks,GAN)的发展,已经提出了许多基于生成对抗的方法[32-38]被应用到有监督和无监督行人重识别任务上.Liu等人[32]考虑了由人体姿态变化引起的重新识别鲁棒性挑战,并提出了一种姿态可转移框架,利用姿态转移样本增强姿态鲁棒性. Qian等人[33]引入人体姿态用于合成具有不同姿态的人物图像,通过合成姿态规范化的图像,使模型所学到的特征表示不受姿态变化的影响.Wei等人[34]通过尽可能保持前景不变的条件下对不同数据集的背景进行转换,利用GAN将源域的图像风格转移到目标域中.

    文献[32-34]方法都是在图像层级生成图像,这些方法无法进行端到端实现,在生成的过程中也很难保证生成图像中有关行人身份的内容特征不被破坏或丢失. 为此,Zheng等人[35]设计了一个融合特征学习和数据生成端到端的联合学习框架,使身份判别模块和图像生成模块相互促进从而生成更可靠的数据. 由于该方法仍然需要生成新的图像,其相对于特征学习需要增加GAN,因此在训练过程中需要耗费更多的资源.

    另一类方法是基于数据分布自适应的对抗迁移算法,其在特征层级执行对抗训练,我们的方法属于这一类. 区别于生成对抗的迁移学习方法,基于数据分布自适应的对抗迁移算法通常为端到端的训练,通过特征提取器和领域判别器的相互对抗训练,以此学到领域不变的特征. Yu等人[36]在此基础上将动态分布自适应融入了对抗学习中,提出了一个动态对抗自适应网络,通过动态调整边界和条件分布关系使模型预测更加稳健准确. Qi等人[37]受文献[8]的启发,提出了一种基于摄像头感知的域适应方法,以此获取摄像头无关的特征表示. 不同于存在的对称对抗方法,我们引入了虚拟数据,Wang等人[39]针对标记数据匮乏导致模型泛化能力差的问题,使用了虚拟数据集得到多样化数据,提出了包含动态训练数据集生成和域不变特征学习部分的算法. 而我们提出了基于摄像头感知的非对称领域对抗模块来实现从虚拟数据中迁移信息到真实场景中,解决了虚拟数据集和真实数据集存在领域差异的问题.

    知识蒸馏是模型压缩的一种常用的方法,知识蒸馏是通过构建一个轻量化的学生模型,利用性能更好的教师模型的监督信息来训练这个学生模型,以达到更好的性能和精度. 目前,一些行人重识别方法也用到了知识蒸馏[3,40]. Zhang等人[40]提出了深度相互学习策略,使学生在整个训练过程中协作学习并相互教学. Zhang等人[3]提出利用局部特征学习影响全局特征学习,并指出局部特征的学习方法是通过计算局部特征间的最短距离. 为了缓解我们方法的对抗过程中,真实世界数据集的数据分布向虚拟数据集的数据分布偏移的现象,我们引入了知识蒸馏的方法,将只由真实世界数据集训练的辅助网络作为教师网络,约束主模型中目标域身份分类的分支概率,保证真实数据空间不发生偏移,以实现在原始空间基础上更好地利用虚拟数据提升模型在真实数据上的泛化性能.

    在引入虚拟数据集的行人重识别研究中,我们将给定2个数据集XsXt混合进行训练,Xs为虚拟数据集,其定义为 {X}_{\mathrm{s}}={\left\{\left({\boldsymbol{x}}_{i}^{\mathrm{s}},{\boldsymbol{y}}_{i}^{\mathrm{s}}\right)\right\}}_{i=1}^{{N}_{\mathrm{s}}} ,其中 {\boldsymbol{x}}_{i}^{\mathrm{s}} {\boldsymbol{y}}_{i}^{\mathrm{s}} 分别为虚拟数据集中第 i 个训练样本和它对应的行人身份标记, {N}_{\mathrm{s}} 为虚拟数据集的样本数量. 给定一个真实世界数据集,我们将其分为训练集 {X}_{\mathrm{t}} 、查询集 {Q}_{\mathrm{t}} 和图库 {G}_{\mathrm{t}} . 同样地我们将具有 {N}_{\mathrm{t}} 个样本的真实世界数据集定义为 {X}_{\mathrm{t}}={\left\{\left({\boldsymbol{x}}_{i}^{\mathrm{t}},{\boldsymbol{y}}_{i}^{\mathrm{t}},{c}_{i}^{\mathrm{t}}\right)\right\}}_{i=1}^{{N}_{\mathrm{t}}} ,其中 {\boldsymbol{x}}_{i}^{\mathrm{t}} {\boldsymbol{y}}_{i}^{\mathrm{t}} 分别为真实世界数据集中第 i 个训练样本和它对应的行人身份标记,而 {c}_{i}^{\mathrm{t}} 则是真实世界数据集中第 i 个训练样本对应的摄像头标记. 我们旨在将 {X}_{\mathrm{s}} {X}_{\mathrm{t}} 混合并训练出一个行人重识别模型 F(\cdot |\boldsymbol{\theta }) ,对于任何一个查询人物的样本 \boldsymbol{q}\in {Q}_{\mathrm{t}} ,行人重识别模型应该生成一个特征向量 {\boldsymbol{f}}_{\boldsymbol{q}} 用于在图库 {G}_{\mathrm{t}} 中查询与 \boldsymbol{q} 有相同身份标记的样本 \boldsymbol{g} ,保证 \boldsymbol{q} 与样本 \boldsymbol{g} 的相似度要比图库中其他样本的相似度要高,如

    \begin{array}{c}{\boldsymbol{g}}^{*}=\mathrm{arg}\,\underset{\boldsymbol{g}\in {G}_{\mathrm{t}}}{\mathrm{m}\mathrm{a}\mathrm{x}}sim\left({\boldsymbol{f}}_{\boldsymbol{g}},{\boldsymbol{f}}_{\boldsymbol{q}}\right),\end{array} (1)

    其中 \boldsymbol{f}=F\left(\cdot|\boldsymbol{\theta }\right)\in {\mathbb{R}}^{d} 是由行人重识别模型提取的一个 d 维特征向量, sim\left(\cdot\right) 是特征之间的相似度.

    本文提出了一种新型的基于知识迁移的虚实结合行人重识别方法框架,同时缓解领域间差异和多摄像头带来类内差异的影响,使模型从更丰富多样的数据中学到摄像头差异无关的特征表示. 整体结构如图3(a)所示. 框架主要包括3个模块:

    图  3  所提方法的整体框架
    Figure  3.  The overall framework of the proposed method

    1)源域(虚拟数据)与目标域(真实数据)混合训练的通用全监督行人重识别模型,并增加了一路单独对目标域数据身份分类的分支;

    2)在混合数据训练的行人重识别模型上添加了一个摄像头判别器,与主干网络组成基于摄像头感知的非对称领域对抗学习模块;

    3)在每一次迭代中,使用混合数据中的目标域样本单独训练的通用全监督行人重识别模型,并使用其对模块1中的目标域分类分支进行约束对齐.

    模块1和模块2组成了主模型,模块3为辅助模型. 模块2中主干网络作为特征提取器,与增加的摄像头判别器以对抗的方式迭代学习,其中摄像头判别器要不断地通过学习正确的摄像头标记信息来保证自己判别的准确性,而特征提取器需要生成可以迷惑摄像头判别器的特征向量以此实现消除领域差异与领域内由摄像头带来的类内差异的问题.

    辅助模型则作为教师网络,将由目标域数据单独训练的行人重识别模型输出的身份类别概率作为软标记,以此约束主模型中目标域身份分类的分支概率,减少目标域数据在对抗中发生的数据分布偏移现象. 最后在训练完成后,仅采用主模型中的主干网络作为特征提取器进行推理,见图3(b).

    当前基于CNN的全监督行人重识别模型都遵循一个相似的网络结构,通过优化三元组损失[41]和软分类损失来进行模型训练,身份损失为:

    \begin{array}{c}{\mathcal{L}}_{\mathrm{i}\mathrm{d}}={\mathcal{L}}_{\mathrm{s}\mathrm{c}\mathrm{l}\mathrm{s}}+{\mathcal{L}}_{\mathrm{t}\mathrm{r}\mathrm{i}}.\end{array} (2)

    对于一个批次的样本,通用的行人重识别模型首先对训练数据集进行 P\times K 采样,即在一个小批次中随机对数据集采样 P 个不同身份的样本,每个身份采样不同的 K 张. 在本文中,针对混合数据的采样策略调整为均衡采样策略,即在每个小批次中虚拟数据和真实数据的样本数量是一致的,前一半批次为虚拟数据样本,后一半批次为真实数据样本. 若一个小批次包含 P\times K 个样本,那么虚拟数据集和真实世界数据集分别采样 (P/2)\times K 张样本.

    采样后的数据进行简单的数据增强后输入到主干网络进行特征提取,该特征提取后会在小批次内计算难三元组损失,从而令小批次中每个样本拉近与它们最不相似的正样本的距离,同时推远与它们最相似的负样本的距离. 三元组损失定义为:

    \begin{split} {\mathcal{L}}_{\mathrm{t}\mathrm{r}\mathrm{i}}=&\frac{1}{{N}_{\mathrm{b}}}\sum _{i=1}^{{N}_{\mathrm{b}}}\mathrm{m}\mathrm{a}\mathrm{x}\left(0,||F ({\boldsymbol{x}}_{i}\mid \boldsymbol{\theta } )-F ({\boldsymbol{x}}_{i,\mathrm{p}}\mid \boldsymbol{\theta } )||+a-\right.\\&\left.||F ({\boldsymbol{x}}_{i}\mid \boldsymbol{\theta } )-F ({\boldsymbol{x}}_{i,\mathrm{n}}\mid \boldsymbol{\theta } )||\right),\end{split} (3)

    其中 {\boldsymbol{x}}_{i,\mathrm{p}} 表示在一个批次中与 {\boldsymbol{x}}_{i} 拥有相同身份标记的样本中最不相似的样本, {\boldsymbol{x}}_{i,\mathrm{n}} 则表示与 {\boldsymbol{x}}_{i} 拥有不同身份标记的样本中最相似的样本. a 是一个三元组距离阈值参数,其迫使模型学习,使锚点 {\boldsymbol{x}}_{i} 和负例 {\boldsymbol{x}}_{i,\mathrm{n}} 的距离更大,同时让锚点 {\boldsymbol{x}}_{i} 和正例 {\boldsymbol{x}}_{i,\mathrm{p}} 的距离更小. ||\cdot|| 代表L2范数距离.

    最后将特征输入到身份分类器中,每一个样本都会得到它对应所有身份类别的概率,利用分类损失可以鼓励模型学习针对每个身份类别更具有判别性的特征向量. 分类损失定义为:

    \begin{array}{c}{\mathcal{L}}_{\mathrm{c}\mathrm{l}\mathrm{s}}=-\dfrac{1}{{N}_{\mathrm{b}}}\displaystyle\sum _{i=1}^{{N}_{\mathrm{b}}} \mathrm{log}p\left({\boldsymbol{y}}_{i}\mid {\boldsymbol{x}}_{i}\right),\end{array} (4)

    其中 {N}_{\mathrm{b}} i 分别表示一个批次中样本的数量和样本的索引号, {\boldsymbol{x}}_{i} {\boldsymbol{y}}_{i} 分别表示一个批次中第 i 个样本和它所属于的身份标记, p\left({\boldsymbol{y}}_{i}\mid {\boldsymbol{x}}_{i}\right) 表示样本 {\boldsymbol{x}}_{i} 属于身份标记 {\boldsymbol{y}}_{i} 的预测概率.

    然而,测试集的行人身份类别从未出现在训练集中. 因此,防止行人重识别模型过度拟合训练的身份类别就显得非常重要. 文献[42]中提出的标记平滑(label smoothing,LS)是一种广泛使用的方法,可以被用于防止分类任务的过拟合现象. 标记平滑后的软分类损失计算更新为:

    \begin{array}{c}{\mathcal{L}}_{\mathrm{s}\mathrm{c}\mathrm{l}\mathrm{s}}=-\dfrac{1}{{N}_{\mathrm{b}}}\displaystyle\sum _{i=1}^{{N}_{\mathrm{b}}}\displaystyle\sum _{j=1}^{{N}_{\mathrm{c}}} {q}_{j}\mathrm{log}p\left({\boldsymbol{y}}_{j}\mid {\boldsymbol{x}}_{i}\right),\end{array} (5)

    其中

    {q}_{j}=\left\{\begin{aligned}& 1-\dfrac{{N}_{\mathrm{c}}-1}{{N}_{\mathrm{c}}}\varepsilon ,\;\;\text{i}\text{f}\;\;{\boldsymbol{y}}_{j}={\boldsymbol{y}}_{i},\\& \varepsilon /{N}_{\mathrm{c}},\;\;\text{其他}\text{,}\end{aligned}\right.

    {N}_{\mathrm{c}} 为训练集的身份类别个数, j 为训练集中的某一身份类别索引, \varepsilon 为一个小的正常数迫使模型降低对训练集的信任,以此减少过拟合现象.

    在行人重识别中,从属于不同摄像头的样本由于背景、视角、光照、人体姿势等一系列变化引起显著的类内差异,这同样也可以被映射在跨领域差异问题上. 若将训练集的样本按照从属的摄像头划分,每一个摄像头可以被视作一个子领域. 仅仅减少源域和目标域的整体差异并不能有效处理跨摄像头级的差异,这在一定程度上会对学习特征表示的质量产生不利影响. 为此,本文提出了一种基于摄像头感知领域适应模块,将从属于不同摄像头的样本映射到共享子空间中. 为实现这一目标,提出一种基于摄像头感知的非对称对抗学习(camera-aware asymmetric adversarial learning,CAAL),训练流程如图4所示.

    图  4  基于摄像头感知的非对称对抗学习训练流程
    Figure  4.  Training process of camera-aware based asymmetric adversarial learning

    传统的对抗性学习[8]通常只处理2个域,通过领域之间的对抗学到领域不变信息. 与其不同的是,本文提出的CAAL方法不仅将源域样本映射到目标域空间来降低领域差异,并且可以处理多个子域(即源域和目标域中的摄像头)进一步降低由摄像头引起的类内差异.

    假定 {X}_{\mathrm{s}}={\left\{\left({\boldsymbol{x}}_{i}^{\mathrm{s}},{\boldsymbol{y}}_{i}^{\mathrm{s}}\right)\right\}}_{i=1}^{{N}_{\mathrm{s}}} {X}_{\mathrm{t}}={\left\{\left({\boldsymbol{x}}_{i}^{\mathrm{t}},{\boldsymbol{y}}_{i}^{\mathrm{t}},{c}_{i}^{\mathrm{t}}\right)\right\}}_{i=1}^{{N}_{\mathrm{t}}} 为源域和目标域中的训练数据,混合训练数据 X= [{X}_{\mathrm{s}},{X}_{\mathrm{t}}] . 如图4所示,在本文任务中将源域看作一个摄像头,给定每个源域训练样本的摄像头标记都为“ 0 ”, {c}_{i}^{\mathrm{t}}\in \{0, 1,\cdots ,{C}_{\mathrm{t}}-1\} 是真实世界数据集中第 i 个训练样本对应的摄像头标记,混合训练中真实世界数据集的摄像头标记重标记为 {c}_{i}^{\mathrm{t}}+1\in \{\mathrm{1,2},\cdots ,{C}_{\mathrm{t}}\} {C}_{\mathrm{t}} 为目标域中摄像头的总个数. 对抗学习框架中生成器和判别器以对抗的方式迭代学习,本文跟随DANN[8]的工作,将特征提取器 F\left(\cdot|{\boldsymbol{\theta }}_{1}\right) 视为生成器,另外本文构建了可学习的摄像头判别器 D:\boldsymbol{f}\to \left\{\mathrm{0,1},\cdots ,{C}_{\mathrm{t}}\right\} 通过在 {C}_{\mathrm{t}}+1 个摄像头类别上定义的交叉熵损失进行优化. 下面将介绍CAAL具体过程.

    首先,为了获取更可信的摄像头判别器,固定特征提取器参数,利用交叉熵损失只更新摄像头判别器,损失函数为:

    \begin{array}{c}{\mathcal{L}}_{\mathrm{c}\mathrm{a}\mathrm{m}}=\dfrac{1}{{N}_{\mathrm{b}}}\displaystyle\sum _{i=1}^{{N}_{\mathrm{b}}}{\mathcal{L}}_{\mathrm{c}\mathrm{e}}\left(D\left(F\left({\boldsymbol{x}}_{i}^{\mathrm{b}}|{\boldsymbol{\theta }}_{1}\right)\right),{c}_{i}\right),\end{array} (6)

    其中

    {c}_{i}=\left\{\begin{array}{l} 0,{\boldsymbol{x}}_{i}^{\mathrm{b}}\in {X}_{\mathrm{s}}{\text;} \\ {c}_{i}^{\mathrm{t}},{\boldsymbol{x}}_{i}^{\mathrm{b}}\in {X}_{\mathrm{t}}\text{. }\end{array}\right.

    其次,为了将从属于不同摄像头的样本映射到共享子空间中构建软标记,此时将摄像头判别器的参数固定,特征提取器的参数受身份损失与迷惑标记损失共同优化,迷惑损失为:

    \begin{array}{c}{\mathcal{L}}_{\mathrm{c}\mathrm{f}\mathrm{s}}=-\dfrac{1}{{N}_{\mathrm{b}}}\displaystyle\sum _{i=1}^{{N}_{\mathrm{b}}} {\mathcal{L}}_{\mathrm{c}\mathrm{e}}\left(D\left(F\left({\boldsymbol{x}}_{i}^{\mathrm{b}}|{\boldsymbol{\theta }}_{1}\right)\right),{\boldsymbol{y}}_{\mathrm{c}\mathrm{f}\mathrm{s}}\right),\end{array} (7)

    其中 {\boldsymbol{y}}_{\mathrm{c}\mathrm{f}\mathrm{s}} 为迷惑标记, {\boldsymbol{y}}_{\mathrm{c}\mathrm{f}\mathrm{s}}=\left(0,\dfrac{1}{{C}_{\mathrm{t}}},\dfrac{1}{{C}_{\mathrm{t}}},\cdots ,\dfrac{1}{{C}_{\mathrm{t}}}\right)\in {\mathbb{R}}^{{C}_{\mathrm{t}}+1} .

    特征提取器和摄像头判别器以对抗的方式迭代学习,摄像头判别器要不断地通过优化 {\mathcal{L}}_{\mathrm{c}\mathrm{a}\mathrm{m}} 学习正确的摄像头标记信息来保证自己判别的准确性,而特征提取器需要生成可以迷惑摄像头判别器的特征向量以此达到消除领域差异与领域内由摄像头带来的类内差异的问题,总优化损失为:

    \begin{array}{c}{\mathcal{L}}_{\mathrm{F}}={\lambda }_{\mathrm{c}\mathrm{a}\mathrm{m}}{\mathcal{L}}_{\mathrm{c}\mathrm{f}\mathrm{s}}+{\mathcal{L}}_{\mathrm{i}\mathrm{d}}^{\mathrm{m}\mathrm{i}\mathrm{x}},\end{array} (8)

    其中 {\lambda }_{\mathrm{c}\mathrm{a}\mathrm{m}} 为迷惑损失权重, {\mathcal{L}}_{\mathrm{i}\mathrm{d}}^{\mathrm{m}\mathrm{i}\mathrm{x}} 为由混合数据训练的通用行人重识别模型的身份损失. 通过控制合适的迷惑损失权重,可以平衡混合数据样本映射到共享子空时身份判别性的损失和在对抗中目标域数据分布发生被迫偏移的问题. 在对抗训练期间,特征提取器和摄像头判别器依次迭代学习,重复此操作直到收敛. 传统的双域对抗学习[8]只是这种基于摄像头感知的方案的一个特例,即当源域和目标域中只有1个摄像头类时.

    已经有很多研究表明[42-43],使用软标记作为分类交叉熵损失的推广是有效的. 同时受文献[44]的启发,我们认为在没有蒸馏的情况下,神经网络的训练会陷入部分特征的陷阱,因此需要引入知识蒸馏来缓解这个问题. 在实验中发现,对抗过程中,真实世界数据集的数据分布不可避免地会向虚拟数据集的数据分布偏移,这是我们不希望发生的. 为了避免这种偏移,本文将只由真实世界数据集训练的辅助模型作为教师网络,由辅助模型预测的身份类别概率作为软标记,代替目标域样本的独热标记,用于训练主模型中目标域数据身份分类分支,缓解由虚拟数据集夹带的误导信息带来的不利影响.

    如3.1节中介绍,辅助模型为由目标域数据训练的通用全监督行人重识别模型,然而在文献[10]中提到,虽然在教师网络中增加标记平滑的优化可以提高教师网络的模型性能,但是在用平滑过的教师网络进行知识蒸馏时,会降低学生网络的模型性能. 因为错误类别的预测概率正是我们在知识蒸馏时想要学习的潜在信息,而标记平滑则会抹去这些信息,所以为保证辅助模型预测的身份类别概率的可靠性,以及更好地进行知识蒸馏,辅助模型身份损失中的软分类损失由传统交叉熵损失代替进行更新优化,如式(9)所示:

    \begin{array}{c}{\mathcal{L}}_{\mathrm{i}\mathrm{d}}^{\mathrm{t}}={\mathcal{L}}_{\mathrm{c}\mathrm{l}\mathrm{s}}^{\mathrm{t}}+{\mathcal{L}}_{\mathrm{t}\mathrm{r}\mathrm{i}}^{\mathrm{t}}.\end{array} (9)

    此外,为了防止辅助模型预测样本身份类别错误导致主模型学习到错误信息. 本文构建了选择掩码矩阵 {\boldsymbol{M}}_{\mathrm{r}\mathrm{i}\mathrm{g}\mathrm{h}\mathrm{t}}\in {\mathbb{R}}^{{1\times (N}_{\mathrm{b}}/2)} ,在每个小批次中,只对在辅助模型中身份类别预测正确的样本计算对齐损失,选择掩码矩阵 {\boldsymbol{M}}_{\mathrm{r}\mathrm{i}\mathrm{g}\mathrm{h}\mathrm{t}} 和目标域对齐损失定义为:

    \begin{split}{\mathcal{L}}_{\mathrm{a}\mathrm{l}\mathrm{i}\mathrm{g}\mathrm{n}\mathrm{m}\mathrm{e}\mathrm{n}\mathrm{t}}= & -\dfrac{1}{m}\displaystyle\sum _{i=1}^{m}{m}_{\mathrm{r}}\big({I}_{\mathrm{m}\mathrm{a}\mathrm{i}\mathrm{n}}\big(F\big({\boldsymbol{x}}_{i}^{\mathrm{t}}\big|{\boldsymbol{\theta }}_{1}\big)\big)\times \\ &\text{l}\text{o}\text{g}\big({I}_{\mathrm{a}\mathrm{u}\mathrm{x}}\big(F\big({\boldsymbol{x}}_{i}^{\mathrm{t}}\big|{\boldsymbol{\theta }}_{2}\big)\big)\big)\big),\end{split} (10)

    其中

    {m}_{\mathrm{r}}=\left\{\begin{aligned}& 1,Index\left(\mathrm{arg}\,\mathrm{m}\mathrm{a}\mathrm{x}{I}_{\mathrm{a}\mathrm{u}\mathrm{x}}\left(F\left({\boldsymbol{x}}_{i}^{\mathrm{t}}|{\boldsymbol{\theta }}_{2}\right)\right)\right)=i.\\ &0,Index\left(\mathrm{arg}\,\mathrm{m}\mathrm{a}\mathrm{x}{I}_{\mathrm{a}\mathrm{u}\mathrm{x}}\left(F\left({\boldsymbol{x}}_{i}^{\mathrm{t}}|{\boldsymbol{\theta }}_{2}\right)\right)\right)\ne i\text{. }\end{aligned}\right.

    辅助模型中身份分类器 {I}_{\mathrm{a}\mathrm{u}\mathrm{x}} 和主模型中身份分类器 {I}_{\mathrm{m}\mathrm{a}\mathrm{i}\mathrm{n}} 均输出 {N}_{\mathrm{t}} 维概率向量来预测目标域训练样本的身份. 对于一个样本 {\boldsymbol{x}}_{i}^{\mathrm{t}} ,当 {I}_{\mathrm{a}\mathrm{u}\mathrm{x}} 输出的 {N}_{\mathrm{t}} 维向量中具有最大概率的索引值与它对应的身份标记的索引值 i 相同时, {m}_{\mathrm{r}}= 1.m 为每个批次中选择掩码 {\boldsymbol{M}}_{\mathrm{r}\mathrm{i}\mathrm{g}\mathrm{h}\mathrm{t}} 中包含1的个数.

    本文提出的基于知识迁移的虚实结合行人重识别方法框架包含由混合数据训练的主模型和由目标域数据单独训练的辅助模型. 在一个批次中首先由 {\mathcal{L}}_{\mathrm{c}\mathrm{a}\mathrm{m}} 训练主模型中的摄像头判别器,随后总损失 \mathcal{L}\left({\boldsymbol{\theta }}_{1},{\boldsymbol{\theta }}_{2}\right) 通过式(11)同时更新除摄像头判别器以外的主模型和辅助模型参数:

    \begin{split} \mathcal{L}\left({\boldsymbol{\theta }}_{1},{\boldsymbol{\theta }}_{2}\right)=&{\mathcal{L}}_{\mathrm{i}\mathrm{d}}^{\mathrm{m}\mathrm{i}\mathrm{x}}\left({\boldsymbol{\theta }}_{1}\right)+{\lambda }_{\mathrm{c}\mathrm{a}\mathrm{m}}{\mathcal{L}}_{\mathrm{c}\mathrm{f}\mathrm{s}}\left({\boldsymbol{\theta }}_{1}\right)+{\mathcal{L}}_{\mathrm{i}\mathrm{d}}^{\mathrm{t}}\left({\boldsymbol{\theta }}_{2}\right)+\\&{\lambda }_{\mathrm{a}\mathrm{u}\mathrm{x}}{\mathcal{L}}_{\mathrm{a}\mathrm{l}\mathrm{i}\mathrm{g}\mathrm{n}\mathrm{m}\mathrm{e}\mathrm{n}\mathrm{t}}\left({\boldsymbol{\theta }}_{1},{\boldsymbol{\theta }}_{2}\right),\end{split} (11)

    其中 {\lambda }_{\mathrm{c}\mathrm{a}\mathrm{m}} {\lambda }_{\mathrm{a}\mathrm{u}\mathrm{x}} 为权重参数. 主模型中特征提取器与摄像头判别器以对抗的方式迭代学习,将混合数据样本映射到共享子空间,辅助模型通过简单的知识蒸馏去平衡对抗中带来的分布偏移. 主模型与辅助模型共同优化,同时建模域间、域内差异,使模型从更丰富多样的数据中学到更一般化的类内差异特征表示. 本文提出的基于知识迁移的虚实结合行人重识别的具体算法如算法1所示.

    算法1. 基于知识迁移的虚实结合行人重识别算法.

    输入:虚拟数据集 {X}_{\mathrm{s}}={\left\{\left({\boldsymbol{x}}_{i}^{\mathrm{s}},{\boldsymbol{y}}_{i}^{\mathrm{s}}\right)\right\}}_{i=1}^{{N}_{\mathrm{s}}} ,真实数据集 {X}_{\mathrm{t}}={\left\{\left({\boldsymbol{x}}_{i}^{\mathrm{t}},{\boldsymbol{y}}_{i}^{\mathrm{t}},{c}_{i}^{\mathrm{t}}\right)\right\}}_{i=1}^{{N}_{\mathrm{t}}} ,ImageNet上预训练模型 F\left(\cdot|\boldsymbol{\theta }\right) ,批样本数量 {N}_{\mathrm{b}} ,身份采样参数 P,K ,权重参数 {\lambda }_{\mathrm{c}\mathrm{a}\mathrm{m}},{\lambda }_{\mathrm{a}\mathrm{u}\mathrm{x}} , 标记平滑参数 \varepsilon , 三元组阈值 a

    输出:经过优化的特征提取器 F(\cdot|{\boldsymbol{\theta }}_{1}) .

    ① for n in [1, num_epochs] do

    ② repeat

    ③  {B}_{\mathrm{s}},{B}_{\mathrm{t}} 分别为每个小批次从 {X}_{\mathrm{s}},{X}_{\mathrm{t}} 中按照 P\times K  采样 {N}_{\mathrm{b}}/2 个图像;

    ④  {B}_{\mathrm{m}\mathrm{i}\mathrm{x}}=\left[{B}_{\mathrm{s}},{B}_{\mathrm{t}}\right] ,将 {B}_{\mathrm{m}\mathrm{i}\mathrm{x}} 经过数据增强后输入  到 F\left({\boldsymbol{x}}_{i}^{\mathrm{m}\mathrm{i}\mathrm{x}}\right|{\boldsymbol{\theta }}_{1}) 中, {B}_{\mathrm{t}} 经过数据增强后输入  到 F\left({\boldsymbol{x}}_{i}^{\mathrm{t}}\right|{\boldsymbol{\theta }}_{2}) 中;

    ⑤ 根据式(6)单独更新摄像头判别器参数, 其  他参数固定不参与更新;

    ⑥ 根据式(11)更新除摄像头判别器以外的参数;

    ⑦ 直到 {B}_{\mathrm{t}} 被枚举完;

    ⑧ end for

    本文引入了虚拟数据集RandPerson[45]分别与2个广泛使用的真实域行人重识别数据集CUHK03[46]和MSMT[34]相结合进行训练. 并且在这2个数据集上评估了所提出的方法.

    RandPerson由19个摄像头捕获的8000个身份的132145张图像组成. 因为此数据集仅作为辅助训练引入,本文的目的并不在意模型在此数据集上的表现,所以并未划分查询集与图库集,此数据集也不会参加模型验证与测试.

    CUHK03包含28193张图像,由2个摄像头拍摄的1467个身份组成. 本文遵循与Market1501类似的新协议,将CUHK03数据集分为767个身份的训练集和700个身份的测试集. 从每个相机中,选择一个图像作为每个身份标记的查询,其余图像用于构建图库集. 其中767个身份的7368张图像用于训练. 查询集和图库集分别具有其余700个身份的1400个图像和5328个图像.

    MSMT由15个摄像头捕获的4101个身份的126441张图像组成. 训练集包含1041个身份的32621张图像. 并将3060个身份的其余图像分配给查询集(11659个图像)和图库集(82161个图像).

    在训练过程中,我们仅使用每个数据集训练集中的图像和相机标签,不使用任何其他注释信息. 模型评价指标由累积匹配性能(cumulative match characteristic,CMC)rank-1和平均精度均值(mean average precision,mAP)评估.

    本文在主干模型和辅助模型上均采用ResNet-50[47]作为主干网络去提取特征,并使用在ImageNet[48]上预先训练的参数对其进行初始化. 在训练过程中,输入图像被统一调整为256×128,并采取了行人重识别领域大多数工作采取的传统图像增强方式,即通过随机翻转、随机填充和随机擦除[30]进行.

    对于训练中的每个小批次,每个身份的图像都遵循 P\times K 采样. 为了确保与其他方法更公平地比较,本文采取了同其他行人重识别方法[6,16,26]的实验设置. 本文设定小批量大小为128,即对于混合数据来说,采用均衡采样策略,分别在虚拟数据集和真实世界数据集使用 P=16 个随机选择的身份,每个身份选择 K=4 张图像进行采样,主模型输入混合数据,辅助模型输入与混合数据中相同的真实数据样本.

    采用Adam方法对模型进行优化. 训练中采取预热策略来引导网络以获得更好的性能,本文将初始学习率设置为 3.5\times {10}^{-5} . 前10个epoch线性地将学习率从 3.5\times {10}^{-5} 增加到 3.5\times {10}^{-4} ,在第40个轮次和第70个轮次,学习率分别衰减到 3.5\times {10}^{-5} 3.5\times {10}^{-6} ,总共有120个训练轮次. 设定三元组损失的间距阈值 a= 0.3. 本文在主干网络中引入了标签平滑技术,并参考了基于标签平滑的知识蒸馏方法[42]的实验设置,将设定标签平滑参数 \varepsilon =0.1.

    本节中将本文提出的基于对抗迁移学习的行人重识别方法与近几年行人重识别领域提出的主流全监督方法在CUHK03和MSMT这2个数据集上进行了比较,这里需要注意的是,本文没有做任何的后处理,例如,重新排名[27-28]或多查询融合[1],因此所有的比较是公平的.

    在CUHK03数据集上的验证说明了通常有2种拆分方法可以将CUHK03数据集划分训练集和测试集. 本文采取了767/700的拆分设置(训练集包含767个身份标记、测试集包含700个身份标记)而非1367/100(训练集包含1367个身份标记、测试集包含100个身份标记)的设置. 因为前者比后者具有更少的训练图像和更多的测试图像,设置上更难,具有更大的挑战性也更接近现实的行人重识别任务. 同时在这种设置下也会给模型带来更大的困难. 在这种情况下,引入无需手工标注的虚拟数据集可以很好地帮助模型进行训练. 由表1可以看出,本文方法在CUHK03数据集上无论采取哪种评价指标,与目前主流的方法对比均可以取得更卓越的性能.

    表  1  CUHK03数据集上与主流方法的对比
    Table  1.  Compared with SOTA Methods on CUHK03 Dataset
    方法 主干网络 尺寸 mAP/% rank-1/%
    PCB[4] ResNet50 256×128 53.2 59.7
    FD[49] ResNet50 256×128 65.2 67.7
    Pyramid[16] ResNet101 384×128 76.9 78.9
    MGN[6] ResNet50 384×128 67.4 68.0
    BAT-net[17] GoogLeNet 256×128 76.1 78.6
    DANN*[8] ResNet50 256×128 75.5 77.6
    AutoLoss-GMS-A[50] ResNet50 256×128 68.3 70.4
    本文方法 ResNet50 256×128 77.8 81.1
    注:*表示在本文相同设置下重新实现.
    下载: 导出CSV 
    | 显示表格

    Pyramid方法连接了21个不同尺度的局部特征,并且使用了更多参数的ResNet101作为主干网络.MGN方法受益于更庞大且复杂的网络,它具有8个分支,生成8个特征向量,共需要11个损失函数进行监督约束,其模型大小(参数数量)是本文方法的3倍. 然而在CUHK03数据集上进行对比时,本文方法在2个评价指标上的值均高于以上2个方法. 这证明了在面对更困难、更具有挑战的行人重识别任务时引入虚拟数据集进行辅助训练的重要性,可以在更小的开销下提升更多的模型性能. 在与本文具有相同的数据集和采样策略的设置下重新实现了DANN方法. 重现的模型在rank-1上比本文方法降低约3.4个百分点,在mAP上降低约2.3个百分点,这也证明了本文方法在消除领域差异上的优越性.

    在MSMT数据集上的验证说明了MSMT数据集是3个数据集中拥有图像数量最多、行人身份数目最多、摄像头数量最多的数据集. 该数据集具有更复杂的场景和背景,并且在采集图片时涵盖了多个天气、多个时段具有的更复杂的光照变化. 因此MSMT数据集是更接近真实场景的大型数据集. 然而如表2所示,在面对如此庞大且复杂的数据集时,本文方法比对比方法的rank-1值高出至少1.7个百分点、mAP值高出至少1.3个百分点.

    表  2  MSMT数据集上与主流方法的对比
    Table  2.  Compared with SOTA Methods on MSMT Dataset
    方法 主干网络 尺寸 mAP/% rank-1/%
    PCB[4] ResNet50 256×128 40.4 68.2
    BAT-net[17] GoogLeNet 256×128 56.8 79.5
    CE-FAT[51] ResNet50 256×128 39.2 69.4
    CBN[26] ResNet50 256×128 42.9 72.8
    DG-Net[35] ResNet50 256×128 52.3 77.2
    DANN*[8] ResNet50 256×128 57.6 79.9
    CDNet[7] CDNet 256×128 54.7 78.9
    AutoLoss-GMS-A[50] ResNet50 256×128 55.1 79.5
    本文方法 ResNet50 256×128 58.8 82.1
    注:*表示在本文相同设置下重新实现.
    下载: 导出CSV 
    | 显示表格

    CBN方法中也利用到了摄像头标记信息,但是仍低于本文方法的mAP值 15.9个百分点和rank-1值 9.3个百分点,证明本文方法可以更好地利用摄像头标记信息.DG-Net生成了10倍的数据增广,在mAP 和rank-1这2个指标上分别低了6.5个百分点和4.9个百分点,证明了引入虚拟数据集进行辅助训练的有效性. 与CUHK03数据集相同,在MSMT数据集上同样复现了与本文方法框架具有相同的数据集和采样策略设置的DANN方法. 在此设置下复现的DANN方法依然在mAP上略高于表现最好的BAT-net方法,这也证明了即使是面对数据量更多、行人身份更多样、场景更复杂的大型数据集时,引入虚拟数据集进行辅助训练仍然对模型表现具有卓越的提升. 同时,将本文方法与复现的DANN方法对比时,mAP值提高了1.2个百分点,rank-1值提高了2.2个百分点,证明了本文消除领域差异的方法更适用于行人重识别任务.

    综上所述,本文方法在2个数据集上与当前主流行人重识别方法对比,无论使用哪种评估指标均表现优异. 通过对2个数据集的比较实验,我们也可以发现本文方法在更具有挑战性的新协议CUHK03数据集和数据量更大更复杂的MSMT数据集上进行验证时,始终优于所有其他方法. 因此,我们可以得出本文方法更擅长处理复杂且具有挑战性的问题,即更接近真实场景的情况.

    本节中我们在CUHK03和MSMT数据集上进行了消融实验,以充分分析和验证每个组件的有效性. 设置ResNet50为基准网络,其中“RP+CUHK03/MSMT”表示引入RandPerson数据集进行辅助训练,“w/o 辅助网络”表示仅使用本文方法进行训练,“w/o CAAL”表示仅使用本文方法进行训练.

    由于虚拟数据集RandPerson具有132145张训练图像,是CUHK03数据集图像数量的20倍,即使是大型数据集MSMT也有将近4倍的训练数据. 如果单纯将虚拟数据集和真实数据集(CUHK03和MSMT中任意一个)混合起来,每个小批次时随机从混合数据集中采样,不仅会造成训练时间的增长(由于训练数据的大幅度增加),而且在实验中我们发现,在2个真实数据集上的性能有不同程度的下降,具体数据见表3表4. 通过分析,造成这种现象的原因有2点:一是因为虚拟数据集与真实数据集具有较大的领域差异,强行混合训练只会令模型迷惑;二是虚拟数据集具有更多的数据量,从而使模型在学习的时候更偏向于虚拟数据集的数据分布.

    表  3  CUHK03数据集上消融实验结果
    Table  3.  Ablation Experiment Results on CUHK03 Dataset %
    方法 训练集 mAP rank-1
    基准模型 CUHK03 63.6 65.7
    基准模型 RP+ CUHK03 63.8 65.6
    基准模型* RP+ CUHK03 72.7 75.1
    本文(w/o 辅助网络) RP+ CUHK03 77.1 80.5
    本文(w/o CAAL) RP+ CUHK03 75.9 78.2
    本文(完整方法) RP+ CUHK03 77.8 81.1
    注:*表示采用均衡采样策略.
    下载: 导出CSV 
    | 显示表格
    表  4  MSMT数据集上消融实验结果
    Table  4.  Ablation Experiment Results on MSMT Dataset %
    方法 训练集 mAP rank-1
    基准模型 MSMT 49.8 75.1
    基准模型 RP+ MSMT 47.8 71.9
    基准模型* RP+ MSMT 56.3 78.9
    本文(w/o 辅助网络) RP+ MSMT 57.3 81.0
    本文(w/o CAAL) RP+ MSMT 57.8 80.3
    本文(完整方法) RP+ MSMT 58.8 82.1
    注:*表示采用均衡采样策略.
    下载: 导出CSV 
    | 显示表格

    为了缓减第2个问题,我们采用均衡采样策略生成每一个批训练数据,即一个批中的数据有一半真实数据和一半虚拟数据. 然而传统的方法,直接随机从每个数据集中进行采样训练. 从表3表4中可以看出,均衡采样策略能够显著提升模型的性能.

    为了证明基于摄像头感知的非对称领域对抗学习模块的有效性,表3表4展示了不使用该模块和使用该模块的实验结果,可以看出当使用CAAL模块时在CUHK03数据集上的mAP值提升了4.4个百分点、rank-1值提升了5.4个百分点,在MSMT数据集上mAP值和rank-1值分别提升1.0个百分点和2.1个百分点. 考虑到CUHK03更具复杂性,从这也可以看出CAAL模块在更困难(更逼近真实场景)的任务上作用更明显.

    为了证明辅助网络的有效性,表3表4同样展示了不使用CAAL模块和使用CAAL模块的实验结果,当仅使用辅助网络时,2个数据集在mAP和rank-1指标上均有提升,证明引入知识蒸馏的确可以在一定程度上缓解虚拟数据集夹带的误导信息带来的不利影响. 当我们在加入CAAL的方法上再加入辅助网络时,实验结果表明在2个数据集上的性能均有显著的提升,证明了模型效果的提升来自于CAAL 模块和辅助网络的共同作用.

    为了进一步证明CAAL模块可以同时降低领域差异和多摄像头间的类内差异,本节采用的t-SNE[52]可视化技术分别绘制了在引入RandPerson数据集辅助MSMT数据集时领域层级和摄像头层级的数据分布示意图. 其中,图5(a)(b)分别是领域层级下不使用CAAL和使用CAAL时的数据分布,图5(c)(d)分别是摄像头层级下不使用CAAL和使用CAAL时的数据分布.

    图  5  t-SNE可视化数据分布
    Figure  5.  Visualization of data distribution via t-SNE

    图5(a)(b)中,所有的点代表了数据集RandPerson和MSMT的样本. 可以看出在不使用CAAL时这2个数据集具有较大的领域差异,而在使用CAAL后2个数据集的样本混合在了一起,即领域差异被消除了.

    而在图5(c)(d)中,将虚拟数据集看作从属于一个摄像头下,所有的点代表了RandPerson和MSMT 在15个摄像头下每个摄像头的样本. 可以看出在没有使用CAAL时,MSMT中的摄像头样本更倾向于聚集在左上部分,RandPerson的摄像头样本更倾向于聚集在右下部分,这体现了不同摄像头通常具有不同的数据分布,当同一身份样本出现在不同摄像头下就会出现类内差异. 而使用了CAAL后不仅虚拟数据集与真实世界数据集的领域差异消失了,原本由于不同摄像头都具有特有的数据分布而聚集在一起的样本已经均匀分散开了. 这表明了CAAL模块消除领域差异的同时也弱化了摄像头间的类内差异.

    图6展示了本文在2个数据集上针对损失权重 {\lambda }_{\mathrm{c}\mathrm{a}\mathrm{m}} 进行的参数实验,可以看出当损失权重 {\lambda }_{\mathrm{c}\mathrm{a}\mathrm{m}}\ge 0.5 的时,2个数据集的评价指标都出现了不同程度的下降,这也证实了我们之前的想法,即使我们的目标是让虚拟数据集的分布尽可能地靠近真实世界数据集分布,但是在对抗中真实世界数据集分布仍然会向虚拟数据集偏移,实验证明,当权重参数 {\lambda }_{\mathrm{c}\mathrm{a}\mathrm{m}}=0.1 时,可以平衡混合数据样本映射到共享子空间时身份判别性的损失和在对抗中目标域数据分布发生被迫偏移的问题.

    图  6  CUHK03和MSMT数据集上 {\lambda }_{\mathrm{c}\mathrm{a}\mathrm{m}} 的分析
    Figure  6.  Analysis of {\lambda }_{\mathrm{c}\mathrm{a}\mathrm{m}} on CUHK03 and MSMT datasets

    本文也对辅助网络中的权重参数 {\lambda }_{\mathrm{a}\mathrm{u}\mathrm{x}} 进行了实验,实验结果见图7. 我们发现对虚拟数据集依赖性弱的数据集(例如,MSMT数据集在直接混合虚拟数据集训练时,相比于仅依靠自身数据训练时2个指标都有不同程度的下降),此时由虚拟数据集夹带的误导信息带来的不利影响越多,辅助网络所带来的知识蒸馏效果越好,所带来的提升也越高,所以将权重参数 {\lambda }_{\mathrm{a}\mathrm{u}\mathrm{x}} 设置为 1.0 . 而数据集是复杂数据集时(例如,CUHK03数据集在直接混合虚拟数据集训练时与仅依靠自身数据训练时相比mAP指标略有上升),此时辅助网络作为教师网络的可信度下降,当模型过于依赖辅助网络时反而会对任务造成负迁移效果. 此时,我们将权重参数 {\lambda }_{\mathrm{a}\mathrm{u}\mathrm{x}} 设置为 0.1 ,这样模型在应对数据量较少且更接近现实场景的行人重识别任务时就不会过度依赖辅助网络,但是同时又可以从辅助网络蒸馏的知识中学到原有的数据分布,以此缓解虚拟数据集带来的知识偏移.

    图  7  CUHK03和MSMT数据集上 {\lambda }_{\mathrm{a}\mathrm{u}\mathrm{x}} 的分析
    Figure  7.  Analysis of {\lambda }_{\mathrm{a}\mathrm{u}\mathrm{x}} on CUHK03 and MSMT datasets

    本文根据现有全监督行人重识别任务受限于数据匮乏的问题,提出引用虚拟数据集进行辅助训练. 同时提出了一种基于知识迁移的虚实结合行人重识别方法框架,采用基于摄像头感知的非对称领域对抗学习方法同时缓解域间、域内差异,以解决虚拟数据集与真实世界数据集领域差异过大和由不同摄像头带来的类内差异问题. 实验证明了该方法在逼近真实场景的行人重识别任务上的有效性.

    作者贡献声明:祁磊提出了算法思路和实验方案;任子豪负责论文修订、补充和实验分析;刘俊汐执行实验和撰写论文;耿新提出指导意见并修改论文.

  • 图  1   SPL分配的对比

    Figure  1.   Comparison of SPL allocation

    图  2   算法流程图

    Figure  2.   Algorithm flowchart

    图  3   PTL切割及迂回布线

    Figure  3.   PTL cutting and detour routing

    图  4   迂回布线方案

    Figure  4.   Detour routing result

    图  6   布线区域扩展结果对比

    Figure  6.   Comparison of routing area expansion results

    图  5   资源分配及布线过程

    Figure  5.   Resource allocation and routing process

    图  7   插入位置的条件

    Figure  7.   Conditions for insertion position

    图  8   潜在可用单元利用情况

    Figure  8.   Utilization of potentially available units

    图  9   布线结果的对比

    Figure  9.   Comparison of routing result

    图  10   局部布线结果图

    Figure  10.   Local routing result

    图  11   运行时间对比

    Figure  11.   Comparison of run time

    表  1   多端线网测试用例详细信息

    Table  1   Details of Test Cases for Multi-Terminal Nets

    基准
    电路
    布线区域
    高度
    连接
    数量
    最大延长长度/
    平均延长长度
    RR0356830.00/0
    RR13569121.91/46
    RR23569928.26/56
    RR335610340.78/130
    RR435610594.02/252
    RR535699128.30/370
    RR63565067.60/346
    Newb135699126.30/370
    Newb235610691.01/252
    Newb33569164.30/260
    Newb435650113.15/554
    Newb535610595.24/288
    下载: 导出CSV

    表  2   基于PTL切割转移策略对比结果

    Table  2   Comparison Results of Strategies Based on PTL Cut and Shift

    基准电路布线区域宽度
    文献[15]文献[17]CAS(本文)
    RR0202020
    RR1403434
    RR2464039
    RR3544948
    RR41087975
    RR5967573
    RR6282828
    Newb1977874
    Newb21038280
    Newb3545047
    Newb4493935
    Newb51028278
    比率1.261.041.00
    下载: 导出CSV

    表  3   基于区域感知的迭代资源插入策略对比结果

    Table  3   Comparison Results of Strategies Based on Area-Aware Iterative Resource Insertion

    基准电路布线区域宽度
    文献[15]文献[17]AIRI(本文)
    RR0202020
    RR1403437
    RR2464037
    RR3544949
    RR41087975
    RR5967573
    RR6282829
    Newb1977876
    Newb21038280
    Newb3545048
    Newb4493936
    Newb51028276
    比率1.251.031.00
    下载: 导出CSV

    表  4   阻塞感知的蜿蜒布线策略对比结果

    Table  4   Comparison Results of Strategies Based on Blocking Aware Snaking Routing

    基准电路布线区域宽度
    文献[15]文献[17]BASR(本文)
    RR0202020
    RR1403434
    RR2464040
    RR3544946
    RR41087975
    RR5967575
    RR6282827
    Newb1977876
    Newb21038278
    Newb3545047
    Newb4493935
    Newb51028275
    比率1.271.041.00
    下载: 导出CSV

    表  5   多端线网布线结果对比

    Table  5   Comparison of Routing Results for Multi-Terminal Nets

    基准电路布线区域宽度
    文献[15]文献[17]LMRouter(本文)
    RR0202020
    RR1403435
    RR2464039
    RR3544945
    RR41087972
    RR5967569
    RR6282826
    Newb1977872
    Newb21038277
    Newb3545045
    Newb4493933
    Newb51028273
    比率1.311.081.00
    下载: 导出CSV

    表  6   单端线网布线结果对比

    Table  6   Comparison of Routing Results for Single-Terminal Nets

    连接数量/
    布线区域高度
    最大延长长度/
    平均延长长度
    布线区域宽度
    文献[15]文献[17]LMRouter(本文)
    15/20043/105141414
    15/20044/122141614
    15/308/26161614
    15/3018/79222220
    25/5012/46222321
    25/5016/51242321
    40/8016/49282826
    40/8019/56303228
    40/20040/168282927
    40/20042/182302927
    50/10023/99423935
    50/10025/111433937
    比率1.101.081.00
    下载: 导出CSV
  • [1] 何小威,乐大珩,郭维,等. 高性能自研处理器物理设计频率提升方法[J],计算机研究与发展2024,61(6):1429−1435

    He Xiaowei, Yue Daheng, Guo Wei, et al. Promoting frequency method for our own high performance processor physical design[J]. Journal of Computer Research and Development, 2024, 61(6): 1429−1435(in Chinese)

    [2]

    Sato R, Hatanaka Y, Ando Y, et al. High-speed operation of random access-memory embedded microprocessor with minimal instruction set architecture based on rapid single-flux-quantum logic[J]. IEEE Transactions on Applied Superconductivity, 2017, 27(4): 1−5 doi: 10.1109/TASC.2017.2684059

    [3]

    Castellanos-Beltran M A, Olaya D I, Sirois A J, et al. Single-flux-quantum multiplier circuits for synthesizing gigahertz waveforms with quantum-based accuracy[J]. IEEE Transactions on Applied Superconductivity, 2021, 31(3): 1−9

    [4]

    Ando Y, Sato R, Tanaka M, et al. Design and demonstration of an 8-bit bit-serial RSFQ microprocessor: CORE e4[J]. IEEE Transactions on Applied Superconductivity, 2016, 26(5): 1−5

    [5]

    Fu Rongliang, Huang Junying, Wu Haibin, et al. JBNN: A hardware design for binarized neural networks using single-flux-quantum circuits[J], IEEE Transactions on Computers, 2022, 71(12): 3203−3214

    [6]

    Obata K, Takagi K, Takagi N. A clock scheduling algorithm for high-throughput RSFQ digital circuits[J]. IEICE Transactions on Fundamentals, 2008, 91(12): 3772−3782

    [7]

    Chen W, Rylyakov A V, Patel V, et al. Rapid single-flux-quantum T-flip flop operating up to 770 GHz[J]. IEEE Transactions on Applied Superconductivity, 1999, 9(2): 3212−3215 doi: 10.1109/77.783712

    [8]

    Katam N, Shafaei A, and Pedram M. Design of complex rapid single-flux-quantum cells with application to logic synthesis[C/OL]// Proc of the 16th Int Superconductive Electronics Conf. Piscataway, NJ: IEEE, 2017[2024-08-17]. https://ieeexplore.ieee.org/abstract/document/8314236

    [9]

    Kameda Y, Yorozu S, Hashimoto Y, A new design methodology for single-flux-quantum (SFQ) logic circuits using passive-transmission-line (PTL) wiring[J]. IEEE Transactions on Applied Superconductivity, 2017, 17(2): 508−511

    [10]

    Schindler L, Roux P l, Fourie C J. Impedance matching of passive transmission line receivers to improve reflections between RSFQ logic cells[J]. IEEE Transactions on Applied Superconductivity, 2020, 30(2): 1−7

    [11]

    Hashimoto Y, Yorozu S, Kameda Y, et al. Development of passive interconnection technology for SFQ circuits[J]. IEICE Transactions on Electronics[J], 2005, 88(2): 198−207

    [12]

    Ortlepp T, Uhlmann F H. Impedance matching of microstrip inductors in digital superconductive electronics[J]. IEEE Transactions on Applied Superconductivity, 2009, 19(3): 644−648 doi: 10.1109/TASC.2009.2019284

    [13]

    Jabbari T, Krylov G, Whiteley S, et al. Repeater insertion in SFQ interconnect[J]. IEEE Transactions on Applied Superconductivity, 2020, 30(8): 1−8

    [14]

    Tanaka M, OBATA K, lto Y, et al. Automated passive-transmission-line routing tool for single-flux-quantum circuits based on A* algorithm[J]. IEICE Transactions on Electronics, 2010, 93(4): 435−439

    [15]

    Kito N, Takagi K, Takagi N. Automatic wire-routing of SFQ digital circuits considering wire-length matching[J]. IEEE Transactions on Applied Superconductivity, 2016, 26(3): 1−5

    [16]

    Kito N, Takagi K, Takagi N. A fast wire-routing method and an automatic layout tool for RSFQ digital circuits considering wirelength matching[J]. IEEE Transactions on Applied Superconductivity, 2018, 28(4): 1−5

    [17]

    Kou Mingyang, Cheng Peiyi, Zeng Jun, et al, Splitter-aware multiterminal routing with length-matching constraint for RSFQ circuits[J]. IEEE Transactions on Computer-Aided Design of Integrated Circuits and Systems, 2021, 40(11): 2251−2264

    [18]

    Kitamura K, Takagi K, Takagi N. A two-step routing method with wire length budgeting for PTL routing of SFQ logic circuits[J/OL]. Journal of Physics: Conference Series, 2020, 1590 [2024-08-17]. https://dx. doi.org/10.1088/1742-6596/1590/1/012043

    [19]

    Yan Jintai. Length-matching-constrained region routing in rapid single-flux-quantum circuits[J]. IEEE Transactions on Computer-Aided Design of Integrated Circuits and Systems, 2020, 40(5): 945−956

    [20]

    Yan Jintai. Via-minimization-oriented region routing under length-matching constraints in rapid single-flux-quantum circuits[J]. IEEE Transactions on Very Large Scale Integration Systems, 2021, 29(6): 1257−1270 doi: 10.1109/TVLSI.2021.3059786

    [21]

    Lin Tingru, Edwards T, Pedram M. qGDR: A via-minimization-oriented routing tool for large-scale superconductive single-flux-quantum circuits[J]. IEEE Transactions on Applied Superconductivity, 2019, 29(7): 1−12

    [22]

    Lin Tingru, Pedram M. Reducing the maximum length of connections in single-flux-quantum circuits during routing[C/OL]// Proc of IEEE Int Superconductive Electronics Conf. Piscataway, NJ: IEEE, 2019[2024-08-16]. https://ieeexplore.ieee.org/abstract/document/8990897

    [23]

    Oshimura T Y, Kuh E S. Efficient algorithms for channel routing[J]. IEEE Transactions on Computer-Aided Design of Integrated Circuits and Systems, 1982, 1(1): 25−35 doi: 10.1109/TCAD.1982.1269993

图(11)  /  表(6)
计量
  • 文章访问数:  41
  • HTML全文浏览量:  2
  • PDF下载量:  8
  • 被引次数: 0
出版历程
  • 收稿日期:  2024-02-01
  • 修回日期:  2024-10-15
  • 录用日期:  2024-11-12
  • 网络出版日期:  2024-11-18

目录

/

返回文章
返回