Processing math: 1%
  • 中国精品科技期刊
  • CCF推荐A类中文期刊
  • 计算领域高质量科技期刊T1类
高级检索

面向科技资讯的基于语义对抗和媒体对抗的跨媒体检索方法

李昂, 杜军平, 寇菲菲, 薛哲, 徐欣, 许明英, 姜阳

李昂, 杜军平, 寇菲菲, 薛哲, 徐欣, 许明英, 姜阳. 面向科技资讯的基于语义对抗和媒体对抗的跨媒体检索方法[J]. 计算机研究与发展, 2023, 60(11): 2660-2670. DOI: 10.7544/issn1000-1239.202220430
引用本文: 李昂, 杜军平, 寇菲菲, 薛哲, 徐欣, 许明英, 姜阳. 面向科技资讯的基于语义对抗和媒体对抗的跨媒体检索方法[J]. 计算机研究与发展, 2023, 60(11): 2660-2670. DOI: 10.7544/issn1000-1239.202220430
Li Ang, Du Junping, Kou Feifei, Xue Zhe, Xu Xin, Xu Mingying, Jiang Yang. Scientific and Technological Information Oriented Semantics-Adversarial and Media-Adversarial Based Cross-Media Retrieval Method[J]. Journal of Computer Research and Development, 2023, 60(11): 2660-2670. DOI: 10.7544/issn1000-1239.202220430
Citation: Li Ang, Du Junping, Kou Feifei, Xue Zhe, Xu Xin, Xu Mingying, Jiang Yang. Scientific and Technological Information Oriented Semantics-Adversarial and Media-Adversarial Based Cross-Media Retrieval Method[J]. Journal of Computer Research and Development, 2023, 60(11): 2660-2670. DOI: 10.7544/issn1000-1239.202220430
李昂, 杜军平, 寇菲菲, 薛哲, 徐欣, 许明英, 姜阳. 面向科技资讯的基于语义对抗和媒体对抗的跨媒体检索方法[J]. 计算机研究与发展, 2023, 60(11): 2660-2670. CSTR: 32373.14.issn1000-1239.202220430
引用本文: 李昂, 杜军平, 寇菲菲, 薛哲, 徐欣, 许明英, 姜阳. 面向科技资讯的基于语义对抗和媒体对抗的跨媒体检索方法[J]. 计算机研究与发展, 2023, 60(11): 2660-2670. CSTR: 32373.14.issn1000-1239.202220430
Li Ang, Du Junping, Kou Feifei, Xue Zhe, Xu Xin, Xu Mingying, Jiang Yang. Scientific and Technological Information Oriented Semantics-Adversarial and Media-Adversarial Based Cross-Media Retrieval Method[J]. Journal of Computer Research and Development, 2023, 60(11): 2660-2670. CSTR: 32373.14.issn1000-1239.202220430
Citation: Li Ang, Du Junping, Kou Feifei, Xue Zhe, Xu Xin, Xu Mingying, Jiang Yang. Scientific and Technological Information Oriented Semantics-Adversarial and Media-Adversarial Based Cross-Media Retrieval Method[J]. Journal of Computer Research and Development, 2023, 60(11): 2660-2670. CSTR: 32373.14.issn1000-1239.202220430

面向科技资讯的基于语义对抗和媒体对抗的跨媒体检索方法

基金项目: 国家自然科学基金重大项目(62192784);第八届青年人才托举工程项目(2022QNRC001)
详细信息
    作者简介:

    李昂: 1993年生. 博士研究生. CCF会员. 主要研究方向为信息检索、数据挖掘、机器学习

    杜军平: 1963年生. 教授. CCF会士. 主要研究方向为人工智能、机器学习、模式识别

    寇菲菲: 1989年生. 讲师. CCF会员. 主要研究方向为语义学习和多媒体信息处理

    薛哲: 1987年生. 副教授. CCF会员. 主要研究方向为机器学习、人工智能、数据挖掘、图像处理

    徐欣: 1992年生. 博士. CCF会员. 主要研究方向为知识图谱、信息检索、机器学习

    许明英: 1987年生. 博士. CCF会员. 主要研究方向为智能信息检索、科技大数据分析、数据挖掘

    姜阳: 1995年生. 硕士. 主要研究方向为自然语言处理、跨媒体检索、深度学习

    通讯作者:

    杜军平(junpingdu@126.com

  • 中图分类号: TP391

Scientific and Technological Information Oriented Semantics-Adversarial and Media-Adversarial Based Cross-Media Retrieval Method

Funds: This work was supported by the Major Program of the National Natural Science Foundation of China (62192784) and the 8th Young Elite Scientists Sponsorship Program by CAST (2022QNRC001).
More Information
    Author Bio:

    Li Ang: born in 1993. PhD candidate. Member of CCF. His main research interests include information retrieval, data mining, and machine learning

    Du Junping: born in 1963. Professor. Fellow of CCF. Her main research interests include artificial intelligence, machine learning, and pattern recognition

    Kou Feifei: born in 1989. Lecturer. Member of CCF. Her main research interests include semantic learning and multimedia information processing

    Xue Zhe: born in 1987. Associate professor. Member of CCF. His main research interests include machine learning, artificial intelligence, data mining, and image processing

    Xu Xin: born in 1992. PhD. Member of CCF. Her main interests include knowledge graph, information retrieval, and machine learning

    Xu Mingying: born in 1987. PhD. Member of CCF. Her main research interests include intelligent information retrieval, science & technology big data analysis, and data mining

    Jiang Yang: born in 1995. Master. His main research interests include nature language processing, cross-media retrieval, and deep learning

  • 摘要:

    科技资讯跨媒体检索是跨媒体领域的重要任务之一,面临着多媒体数据间异构鸿沟和语义鸿沟亟待打破的难题. 通过跨媒体科技资讯检索,用户能够从多源异构的海量科技资源中获取目标科技资讯. 这有助于设计出符合用户需求的应用,包括科技资讯推荐、个性化科技资讯检索等. 跨媒体检索研究的核心是学习一个公共子空间,使得不同媒体的数据在该子空间中可以直接相互比较. 在子空间学习中,现有方法往往聚焦于建模媒体内数据的判别性和媒体间数据在映射后的不变性,却忽略了媒体间数据在映射前后的语义一致性和语义内的媒体判别性,使得跨媒体检索效果存在局限性. 鉴于此,提出一种面向科技资讯的基于语义对抗和媒体对抗的跨媒体检索方法(SMCR),寻找可供映射的有效公共子空间. 具体而言,SMCR在建模媒体内语义判别性之外,将媒体间语义一致性损失最小化,以保留映射前后的语义相似性. 此外,SMCR构建基础特征映射网络和精炼特征映射网络,联合最小化语义内的媒体判别性损失,有效增强了特征映射网络混淆媒体判别网络的能力. 在2个数据集上的大量实验结果表明,所提出的SMCR方法在跨媒体检索中的表现优于最前沿的方法.

    Abstract:

    Cross-media retrieval of scientific and technological information is one of the important tasks in the cross-media study. Cross-media scientific and technological information retrieval obtains target information from massive multi-source and heterogeneous scientific and technological resources, which helps to design applications that meet users’ needs, including scientific and technological information recommendation, personalized scientific and technological information retrieval, etc. The core of cross-media retrieval is to learn a common subspace, in which data from different media can be directly compared with each other. In subspace learning, existing methods often focus on modeling the discrimination of intra-media data and the invariance of inter-media data after mapping, while ignoring semantic consistency within media and media discrimination within semantics, which limits the result of cross-media retrieval. In light of this, we propose a scientific and technological information oriented semantics-adversarial and media-adversarial cross-media retrieval method (SMCR) to find an effective common subspace. Specifically, SMCR minimizes the loss of inter-media semantic consistency in addition to modeling intra-media semantic discrimination, to preserve semantic similarity before and after mapping. Furthermore, SMCR constructs a basic feature mapping network and a refined feature mapping network to jointly minimize the media discriminative loss within semantics, to enhance the feature mapping network’s ability to confuse the media discriminant network. Experimental results on two datasets demonstrate that the proposed SMCR outperforms state-of-the-art methods in cross-media retrieval.

  • 科技资讯聚焦了中外高新技术的前沿动态. 实时跟进最新的科技资讯,有助于促进国家战略科技力量的发展,驱动科技创新,进而确保国家高质量发展[1]. 科技资讯中包含大量的多媒体信息(如图像、文本等),具备体量大、来源丰富、类型多样等特点[2-3]. 随着用户感兴趣的科技资讯模态不再单一,检索需求也呈现出从单一模态到跨模态的发展态势[4-5]. 凭借跨媒体科技资讯检索,用户能够从多源异构的海量科技资源中获取目标科技资讯;研究者亦能近一步设计出符合用户需求的应用,包括科技资讯推荐[6]、个性化科技资讯检索[7]等. 跨媒体科技资讯检索作为当下的研究热点,仍旧面临着多媒体数据间异构鸿沟和语义鸿沟亟待打破的难题[8-9]. 本文旨在解决现有跨媒体科技资讯检索中仅考虑了媒体内数据判别损失和媒体间数据在映射后的不变性损失,却忽略了媒体间数据在映射前后的语义一致性损失和语义内的媒体判别性损失,使得跨媒体检索效果存在局限性的问题.

    跨媒体科技资讯检索方法种类繁多. 先前的工作[10-14]聚焦于传统的统计关联分析方法,通过优化统计值来学习公共空间的线性投影矩阵[15],目的是建立一个共享子空间,使得不同媒体类型的数据对象的相似性可以映射到该子空间中,再使用常见的距离进行度量. 然而,文献[10-14]所述的方法依赖于数据的线性表示,仅通过线性投影很难完全模拟现实世界中跨媒体数据的复杂相关性. 因此,一些研究[16-20]通过深度学习方法解决上述问题,利用其强大的抽象能力处理多媒体数据的多层非线性变换,进行跨媒体相关学习. 然而,现有的基于深度学习的跨媒体检索模型通常只专注于保留耦合的跨媒体样本(例如图像和文本)的成对相似性[21],却忽略了一种媒体的一个样本可能存在多个相同媒体的语义不同的样本,因此无法保留跨媒体语义结构. 保留跨媒体语义结构需要使得相同语义不同媒体的数据间距离最小化,且相同媒体不同语义的数据间距离最大化. 最近的工作[22-26]引入对抗学习的思想,通过联合执行标签预测并保留数据中的底层跨媒体语义结构,为公共子空间中不同媒体的样本生成媒体不变表示. 然而,文献[22-26]所述的方法聚焦于建模媒体内数据的语义判别性和媒体间数据在子空间映射后的语义不变性,却忽略了媒体间数据在映射前后的语义一致性和语义内的媒体判别性,使得跨媒体检索效果存在局限性.

    针对上述问题,引入语义内的媒体约束来加强将不同类型的媒体数据映射到共享高级语义空间的能力,提出一种面向科技资讯的基于语义对抗和媒体对抗的跨媒体检索(semantics-adversarial and media-adversarial cross-media retrieval,SMCR)方法. SMCR方法采用对抗博弈[27]的思想,构建特征映射器和媒体判别器,进行极小化极大化游戏.SMCR方法追随先前工作[28-29],采用标签预测来确保数据在特征投影后仍保留在媒体内的区别. 与先前工作不同的是,SMCR方法同时最小化相同语义的文本−图像对中不同媒体的数据分别在特征映射前和特征映射后的距离,以确保不同媒体间数据在映射过程中的语义一致性得以保留. 此外,通过构建基础映射网络和精炼映射网络共同辅助建模语义内的媒体约束,使映射后的数据做到语义上接近自身和媒体上远离自身,来增强特征映射网络混淆媒体判别网络的能力. 媒体判别网络负责区分数据的原始媒体,一旦媒体判别网络被欺骗,整个博弈过程收敛.

    本文的主要贡献包括3个方面:

    1)提出一种面向科技资讯的基于语义对抗和媒体对抗的跨媒体检索方法(SMCR),通过端到端的方式同时保持媒体内的语义判别性、媒体间的语义一致性、语义内的媒体判别性,能够有效地学习异构数据的公共表示;

    2)通过构建基础特征映射网络和精炼特征映射网络联合进行多媒体数据特征映射,辅助语义内的媒体约束,有效地增强了特征映射网络混淆媒体判别网络的能力;

    3) 在2个数据集上进行的大量实验表明,本文提出的SMCR方法优于当前最前沿的跨媒体检索方法,包括传统的方法和基于深度学习的方法.

    科技资讯跨媒体检索是近年来的研究热点,旨在学习一个公共子空间[13,24,30],使得不同媒体的数据在该子空间中可以直接相互比较,以跨越不同媒体间存在的语义鸿沟.

    一类经典的方法当属传统的统计关联分析方法[10-14],它是公共空间学习方法的基本范式和基础,主要通过优化统计值来学习公共空间的线性投影矩阵. 例如,Hardoon等人[12]提出典型关联分析(canonical correlation analysis,CCA)方法,CCA方法是一种关联2个多维变量之间线性关系的方法,可以被视为使用复杂标签作为引导特征选择朝向底层语义的一种方式. 该方法利用同一语义对象的2个视角来提取语义的表示. Wang等人[13]提出一种基于耦合特征选择和子空间学习的联合学习(joint feature selection and subspace learning,JFSSL),受CCA和线性最小二乘法之间潜在关系的启发,将耦合线性回归用于学习投影矩阵,使来自不同媒体的数据映射到公共子空间中. 同时,JFSSL将l2正则用于同时从不同的特征空间中选择相关和不相关的特征,并且在映射时使用多媒体图正则化来保留媒体间和媒体内的相似性关系.Zhai等人[14]提出了一种新的跨媒体数据特征学习算法,称为联合表示学习(joint representation learning,JRL). 该方法能够在统一的优化框架中联合探索相关性和语义信息,并将所有媒体类型的稀疏和半监督正则化集成到一个统一的优化问题中. JRL旨在同时学习不同媒体的稀疏投影矩阵,并将原始异构特征直接投影到联合空间中. 然而,仅通过线性投影很难完全模拟现实世界中跨媒体数据的复杂相关性.

    随着深度学习的兴起,许多研究聚焦于将能够实现多层非线性变换的深度神经网络应用于跨媒体检索中[16-20]. 例如,Yan等人[17]提出一种基于深度典型相关分析(deep canonical correlation analysis,DCCA)的跨媒体图像字幕匹配方法. 通过解决非平凡的复杂性和过度拟合问题,使该方法适用于高维图像和文本表示以及大型数据集.Peng等人[18]提出一种跨媒体多重深度网络(cross-media multiple deep network,CMDN),通过分层学习来利用复杂而丰富的跨媒体相关性. 在第1阶段,CMDN不像先前工作仅利用媒体内的分离表示,而是联合学习每种媒体类型的2种互补的分离表示;在第2阶段,由于每种媒体类型都有2个互补的独立表示,该方法在更深的2级网络中分层组合单独的表示,以便联合建模媒体间和媒体内的信息以生成共享表示. 然而,现有的基于深度神经网络的跨媒体检索模型通常只专注于保留耦合的跨媒体样本(例如图像和文本)的成对相似性,却忽略了一种媒体的一个样本,可能存在多个相同媒体的语义不同的样本,因此无法保留跨媒体语义结构.

    近年来,相关研究转而向对抗学习[31]进行探索. 虽然它在图像生成[32]中应用较广,但研究者也将其用作正则化器[33]. 一些研究将其思想应用于跨媒体检索,并取得了显著的效果[22-26]. 例如,Wang等人[24]提出一种基于对抗跨媒体检索(adversarial cross-modal retrieval,ACMR)方法来解决跨媒体语义结构难保留的问题. 该方法使用特征投影器,通过联合执行标签预测并保留数据中的底层跨媒体语义结构,为公共子空间中不同媒体的样本生成媒体不变表示. ACMR的目的是混淆充当对手的媒体分类器,媒体分类器试图根据它们的媒体来区分样本,并以这种方式引导特征投影器的学习. 通过这个过程的收敛,即当媒体分类器失败时,表示子空间对于跨媒体检索是最优的. Zhen等人[25]提出一种深度监督跨媒体检索(deep supervised cross-modal retrieval,DSCMR)方法,旨在找到一个共同的表示空间,以便在其中直接比较来自不同媒体的样本. 该方法将标签空间和公共表示空间中的判别损失最小化,以监督模型学习判别特征. 同时最小化媒体不变性损失,并使用权重共享策略来消除公共表示空间中多媒体数据的跨媒体差异,以学习媒体不变特征. 刘翀等人[26]提出一种基于对抗学习和语义相似度的社交网络跨媒体搜索方法(semantic similarity based adversarial cross media retrieval,SSACR),SSACR使用语义分布及相似度作为特征映射网训练依据,使得相同语义下的不同媒体数据在该空间距离小、不同语义下的相同媒体数据距离大,最终在同一空间内使用相似度来排序并得到搜索结果. 然而,文献[24-26]聚焦于建模媒体内数据语义损失和媒体间数据在映射后的语义损失,却忽略了媒体间数据在映射前后的语义一致性和语义内的媒体判别性,使得跨媒体检索效果存在局限性.

    多媒体数据种类繁多,为了不失通用性,本文聚焦于文本、图像2种媒体的跨媒体检索. 给定一系列语义相关的图像-文本对m={m1,m2,,m|m|},其中{m_i} = ({{\boldsymbol{v}}_i},{{\boldsymbol{t}}_i})表示 m 中的第i个图像-文本对,{{\boldsymbol{v}}_i} \in {\mathbb{R}^{{d_{\rm{vis}}}}}表示维度为{d_{\rm{vis}}}的图像特征向量,{{\boldsymbol{t}}_i} \in {\mathbb{R}^{{d_{\rm{tex}}}}}表示维度为{d_{\rm{tex}}}的文本特征向量. 每个图像-文本对都对应着一个语义类别向量{{\boldsymbol{l}}_i} = ({y_1},{y_2}, … ,{y_C}) \in {\mathbb{R}^C},用来表示图像-文本对的语义分布,也可以表示类别标签分布. 其中C表示语义类别总数,假设{{\boldsymbol{l}}_i}属于第j个语义类别,则记{y_j} = 1,否则记{y_j} = 0. 记 m 中所有的图像、文本、语义类别所对应的特征矩阵为{\boldsymbol{V}} = ({{\boldsymbol{v}}_1},{{\boldsymbol{v}}_2}, … ,{{\boldsymbol{v}}_N}) \in {\mathbb{R}^{{d_{\rm{vis}}} \times N}}{\boldsymbol{T}} = ({{\boldsymbol{t}}_1}, {{\boldsymbol{t}}_2}, … ,{{\boldsymbol{t}}_N}) \in {\mathbb{R}^{{d_{\rm{tex}}} \times N}}{\boldsymbol{L}} = ({{\boldsymbol{l}}_1},{{\boldsymbol{l}}_2}, … ,{{\boldsymbol{l}}_N}) \in {\mathbb{R}^{C \times N}}.

    我们的目标是利用一种媒体的数据(如图像{{\boldsymbol{v}}_i}或文本{{\boldsymbol{t}}_i})检索另一种媒体的数据(如文本{{\boldsymbol{t}}_i}或图像{{\boldsymbol{v}}_i}). 为了比较不同媒体数据之间的语义相似性,我们设计2个特征映射网络——基础映射网络和精炼映射网络. 基础映射网络将图像特征和文本特征映射到统一的隐语义空间S中以进行语义相似性的对比. 图像特征{\boldsymbol{V}}映射到隐语义空间S后的特征记为{S_{\boldsymbol{V}}} = {f_{\boldsymbol{V}}}({\boldsymbol{V}};{\theta _{\boldsymbol{V}}}),文本特征{\boldsymbol{T}}映射到隐语义空间S后的特征记为{S_{\boldsymbol{T}}} = {f_{\boldsymbol{T}}}({\boldsymbol{T}};{\theta _{\boldsymbol{T}}}). 其中{f_{\boldsymbol{V}}}({\boldsymbol{V}};{\theta _{\boldsymbol{V}}}){f_{\boldsymbol{T}}}({\boldsymbol{T}};{\theta _{\boldsymbol{T}}})分别表示图像和文本的映射函数. 为了近一步提高特征映射质量,我们用精炼映射网络对基础映射网络的输出特征进行映射. 图像特征 {S_{\boldsymbol{V}}} 映射后的特征记为S_{\boldsymbol{V}}' = {g_{{S_{\boldsymbol{V}}}}}({S_{\boldsymbol{V}}};{\theta _{{S_{\boldsymbol{V}}}}}),文本特征 {S_{\boldsymbol{T}}} 映射后的特征记为S_{\boldsymbol{T}}' = {g_{{S_{\boldsymbol{T}}}}}({S_{\boldsymbol{T}}};{\theta _{{S_{\boldsymbol{T}}}}}). 其中{g_{{S_{\boldsymbol{V}}}}}({S_{\boldsymbol{V}}};{\theta _{{S_{\boldsymbol{V}}}}}){g_{{S_{\boldsymbol{T}}}}}({S_{\boldsymbol{T}}};{\theta _{{S_{\boldsymbol{T}}}}})表示图像特征和文本特征的映射函数.

    本文提出一种面向科技资讯的基于语义对抗和媒体对抗的跨媒体检索方法(SMCR).SMCR的框架如图1所示. 本文的目的是利用对抗学习的思想不断在语义与媒体间进行对抗,学习到一个公共子空间,使不同媒体的数据在该子空间中可以直接相互比较.

    图  1  SMCR的整体框架
    Figure  1.  The overall framework of SMCR

    本文采用特征映射网络是为了将不同媒体的特征映射到统一的隐语义空间以便进行语义相似性的比较. 同时,特征映射网络也扮演着GAN[27]中“生成器”的角色,目的是为了迷惑媒体判别网络(将在3.2节介绍). 为了使映射后的特征表示充分考虑2类媒体数据的语义相似性和媒体相似性,本文设计的特征映射网络由3部分组成:媒体内的标签预测、媒体间的语义保留、语义内的媒体约束. 媒体内的标签预测使得映射在隐语义空间S中的特征依然能够以原始的语义标签为真值进行语义分类;媒体间的语义保留使得语义相同媒体不同的数据在映射前后都能保留语义相似性;语义内的媒体约束使得映射后的数据更加逼近原本语义.

    为了保证映射到隐语义空间S中的特征依然能够保留原始语义,以原始的语义标签为真值进行语义分类. 在每个特征映射网络的最后加入一个保持线性激活的softmax层. 将图像-文本对{m_i} = ({{\boldsymbol{v}}_i},{{\boldsymbol{t}}_i})作为样本进行训练,并输出每个数据对应语义类别的概率分布. 采用在文献[24]中介绍的损失函数来计算媒体内的判别损失:

    {L_{{\rm{imd}}}}({\theta _{{\rm{imd}}}}) = - \frac{1}{n}\sum\limits_{i = 1}^n {({{\boldsymbol{l}}_i} · (\ln {{\hat p}_i}({{\boldsymbol{v}}_i}) + \ln {{\hat p}_i}({{\boldsymbol{t}}_i})))} . (1)

    其中 {L_{{\rm{imd}}}} 表示对所有图像-文本对进行语义类别分类的交叉熵损失,{\theta _{{\rm{imd}}}}表示分类器的参数,{{\boldsymbol{l}}_i}是每个样本{m_i}的真值, {\hat p_i} 是样本中每个数据(图像或文本)所得到的概率分布.

    语义保留模块致力于保证语义相同、媒体不同的数据在映射前后都能保留语义相似性,即媒体不同、语义相同的数据距离较近,媒体不同、语义不同的数据距离较远. 在映射到隐语义空间S之前,每个样本{m_i}中的图像数据与文本数据的语义分布分别为{{\boldsymbol{l}}_{\rm{vis}}}{{\boldsymbol{l}}_{\rm{tex}}},那么2个不同媒体数据间的语义一致性损失用{l_2}范数表示为

    {l_2}({{\boldsymbol{l}}_{\rm{vis}}},{{\boldsymbol{l}}_{\rm{tex}}}) = {\left\| {{{\boldsymbol{l}}_{\rm{vis}}} - {{\boldsymbol{l}}_{\rm{tex}}}} \right\|_2} . (2)

    在映射到隐语义空间S之后,每个样本{m_i}中的图像数据特征{S_{\boldsymbol{V}}}与文本数据的特征{S_{\boldsymbol{T}}}之间的语义一致性损失同样用{l_2}范数表示为

    {l_2}({S_{\boldsymbol{V}}},{S_{\boldsymbol{T}}}) = {\left\| {{f_{\boldsymbol{V}}}({\boldsymbol{V}};{\theta _{\boldsymbol{V}}}) - {f_{\boldsymbol{T}}}({\boldsymbol{T}};{\theta _{\boldsymbol{T}}})} \right\|_2} . (3)

    因此,整体的媒体间一致性损失可以建模为{l_2}({{\boldsymbol{l}}_{\rm{vis}}},{{\boldsymbol{l}}_{\rm{tex}}}){l_2}({S_{\boldsymbol{V}}},{S_{\boldsymbol{T}}})两者的结合:

    {L_{{\rm{imi}}}}({\theta _{\boldsymbol{V}}},{\theta _{\boldsymbol{T}}}) = {l_2}({{\boldsymbol{l}}_{\rm{vis}}},{{\boldsymbol{l}}_{\rm{tex}}}) + {l_2}({S_{\boldsymbol{V}}},{S_{\boldsymbol{T}}}) , (4)

    其中{L_{{\rm{imi}}}}表示媒体间同时考虑映射前与映射后的语义一致性损失.

    除了便于度量不同媒体数据间的语义相似性之外,特征映射网络的另一个作用是生成映射后的特征来欺骗媒体判别网络,让它无法区分出数据的原始媒体. 因此,引入语义内的媒体约束模块. 为了能够更加逼真地映射出难以区分媒体的特征,在基础的特征映射网络{P_1}之外,构造另一个相同结构的特征映射网络{P_2},称为精炼网络. 精炼网络{P_2}的输入是{P_1}的输出结果{S_{\boldsymbol{V}}}{S_{\boldsymbol{T}}}. {P_2}的输出是S_{\boldsymbol{V}}' = {g_{{S_{\boldsymbol{V}}}}}({S_{\boldsymbol{V}}};{\theta _{{S_{\boldsymbol{V}}}}})S_{\boldsymbol{T}}' = {g_{{S_{\boldsymbol{T}}}}}({S_{\boldsymbol{T}}};{\theta _{{S_{\boldsymbol{T}}}}}). 其中S_{\boldsymbol{V}}'S_{\boldsymbol{T}}'分别表示{S_{\boldsymbol{V}}}{S_{\boldsymbol{T}}}经过特征映射网络{P_2}映射后的特征,{g_{{S_{\boldsymbol{V}}}}}({S_{\boldsymbol{V}}};{\theta _{{S_{\boldsymbol{V}}}}}){g_{{S_{\boldsymbol{T}}}}}({S_{\boldsymbol{T}}};{\theta _{{S_{\boldsymbol{T}}}}})分别表示{S_{\boldsymbol{V}}}{S_{\boldsymbol{T}}}这2种特征的映射函数.

    对每一个图像-文本对{m_i}而言,目标是让精炼网络{P_2}映射出的特征(S_{\boldsymbol{V}}'S_{\boldsymbol{T}}')距离基础网络{P_1}映射的特征({S_{\boldsymbol{V}}}{S_{\boldsymbol{T}}})较远,距离相同语义的特征({S_{\boldsymbol{T}}}{S_{\boldsymbol{V}}})较近. 受到文献[34-36]启发,语义内的媒体判别损失采用如下约束损失进行计算:

    {L_{{\rm{con}},{\boldsymbol{V}}}}({\theta _{\boldsymbol{V}}},{\theta _{\boldsymbol{T}}},{\theta _{{S_{\boldsymbol{V}}}}}) = \max \left(0,{\left\| {S_{\boldsymbol{V}}' - {S_{\boldsymbol{T}}}} \right\|_2} - {\left\| {S_{\boldsymbol{V}}' - {S_{\boldsymbol{V}}}} \right\|_2}\right) , (5)
    {L_{{\rm{con}},{\boldsymbol{T}}}}({\theta _{\boldsymbol{T}}},{\theta _{\boldsymbol{V}}},{\theta _{{S_{\boldsymbol{T}}}}}) = \max \left(0,{\left\| {S_{\boldsymbol{T}}' - {S_{\boldsymbol{V}}}} \right\|_2} - {\left\| {S_{\boldsymbol{T}}' - {S_{\boldsymbol{T}}}} \right\|_2}\right) . (6)

    其中{L_{{\rm{con}},{\boldsymbol{V}}}}表示图像媒体数据的约束损失,{L_{{\rm{con}},{\boldsymbol{T}}}}表示文本媒体数据的约束损失.

    因此,整体语义内的媒体判别损失可以建模为图像媒体数据的约束损失{L_{{\rm{con}},{\boldsymbol{V}}}}({\theta _{\boldsymbol{V}}},{\theta _{\boldsymbol{T}}},{\theta _{{S_{\boldsymbol{V}}}}})与文本媒体数据的约束损失{L_{{\rm{con}},{\boldsymbol{T}}}}({\theta _{\boldsymbol{T}}},{\theta _{\boldsymbol{V}}},{\theta _{{S_{\boldsymbol{T}}}}})的结合:

    {L_{{\rm{con}}}}({\theta _{\boldsymbol{V}}},{\theta _{\boldsymbol{T}}},{\theta _{{S_{\boldsymbol{V}}}}},{\theta _{{S_{\boldsymbol{T}}}}}) = {L_{{\rm{con}},{\boldsymbol{V}}}}({\theta _{\boldsymbol{V}}},{\theta _{\boldsymbol{T}}},{\theta _{{S_{\boldsymbol{V}}}}}) + {L_{{\rm{con}},{\boldsymbol{T}}}}({\theta _{\boldsymbol{T}}},{\theta _{\boldsymbol{V}}},{\theta _{{S_{\boldsymbol{T}}}}}). (7)

    整个特征映射网络的映射性损失由媒体内的判别损失{L_{{\rm{imd}}}} 、媒体间的一致性损失{L_{{\rm{imi}}}} 、语义内的判别损失{L_{{\rm{com}}}} 共同组成,记为{L_{{\rm{emb}}}}

    {L_{{\rm{emb}}}}({\theta _{\boldsymbol{V}}},{\theta _{\boldsymbol{T}}},{\theta _{{S_{\boldsymbol{V}}}}},{\theta _{{S_{\boldsymbol{T}}}}},{\theta _{{\rm{imd}}}}) = \alpha · {L_{{\rm{imi}}}} + \beta · {L_{{\rm{con}}}} + {L_{{\rm{imd}}}}, (8)

    其中\alpha \beta 为可调节参数,用以控制{L_{{\rm{imi}}}}{L_{{\rm{con}}}}这2类损失在整个特征映射网络损失中的参与度.

    媒体判别网络扮演着GAN[27]中“判别器”的角色,用来判断映射到隐语义空间后的数据的原始媒体. 令经过图像映射函数的数据标签为0,经过文本映射函数的数据标签为1.本文使用一个参数为{\theta _{\rm{dis}}}的3层全连接网络作为判别网络,充当特征映射网络的对手. 其目标是最小化媒体分类损失,也称为对抗性损失{L_{{\rm{adv}}}},定义为

    {L_{{\rm{adv}}}}({\theta _{\rm{dis}}}) = - \frac{1}{n}\sum\limits_{i = 1}^n {(\ln D({{\boldsymbol{v}}_i};{\theta _{\rm{dis}}}) + \ln (1 - D({{\boldsymbol{t}}_i};{\theta _{\rm{dis}}})))} , (9)

    其中{L_{{\rm{adv}}}}表示媒体判别网络中每个样本{m_i}的交叉熵损失,D( · ;{\theta _{\rm{dis}}})表示样本中每个数据(图像或文本)所得到的媒体概率分布.

    对抗学习的目的旨在通过同时最小化式(8)的映射性损失和式(9)的对抗性损失,来学习得到最优的特征表示网络参数,定义如下所示:

    \begin{aligned} &({\theta _{\boldsymbol{V}}},{\theta _{\boldsymbol{T}}},{\theta _{{S_{\boldsymbol{V}}}}},{\theta _{{S_{\boldsymbol{T}}}}},{\theta _{{\rm{imd}}}}) =\\ & \mathop {\arg \min }\limits_{{\theta _{\boldsymbol{V}}},{\theta _{\boldsymbol{T}}},{\theta _{{S_{\boldsymbol{V}}}}},{\theta _{{S_{\boldsymbol{T}}}}},{\theta _{{\rm{imd}}}}} ({L_{{\rm{emb}}}}({\theta _{\boldsymbol{V}}},{\theta _{\boldsymbol{T}}},{\theta _{{S_{\boldsymbol{V}}}}},{\theta _{{S_{\boldsymbol{T}}}}},{\theta _{{\rm{imd}}}}) - {L_{{\rm{adv}}}}({\theta _{\rm{dis}}})) \end{aligned} , (10)
    {\theta _{\rm{dis}}} = \mathop {\arg \max }\limits_{{\theta _{\rm{dis}}}} ({L_{{\rm{emb}}}}({\theta _{\boldsymbol{V}}},{\theta _{\boldsymbol{T}}},{\theta _{{S_{\boldsymbol{V}}}}},{\theta _{{S_{\boldsymbol{T}}}}},{\theta _{{\rm{imd}}}}) - {L_{{\rm{adv}}}}({\theta _{\rm{dis}}})) . (11)

    具体的对抗学习训练过程如算法1所示.

    算法1. SMCR的对抗训练过程.

    输入:图像特征矩阵{\boldsymbol{V }}= ({{\boldsymbol{v}}_1},{{\boldsymbol{v}}_2}, … ,{{\boldsymbol{v}}_N}), 文本特征矩阵{\boldsymbol{T}} = ({{\boldsymbol{t}}_1},{{\boldsymbol{t}}_2}, … ,{{\boldsymbol{t}}_N}), 真值语义标签矩阵{\boldsymbol{L}} = ({{\boldsymbol{l}}_1}, {{\boldsymbol{l}}_2}, … , {{\boldsymbol{l}}_N}), 迭代次数k, 学习率\mu , 每个批次的数据量m, 损失参数\lambda

    输出:参数 {\theta _{\boldsymbol{V}}} , {\theta _{\boldsymbol{T}}} , {\theta _{{S_{\boldsymbol{V}}}}} , {\theta _{{S_{\boldsymbol{T}}}}} .

    ①随机初始化模型参数;

    ②while未收敛do

    ③  for iter =1 to k do

    ④  通过随机梯度下降更新参数{\theta _{\boldsymbol{V}}},{\theta _{\boldsymbol{T}}},{\theta _{{S_{\boldsymbol{V}}}}},{\theta _{{S_{\boldsymbol{T}}}}},      {\theta _{{\rm{imd}}}}

    ⑤   {\theta _{\boldsymbol{V}}} \leftarrow {\theta _{\boldsymbol{V}}} - \mu \cdot {\nabla _{{\theta _{\boldsymbol{V}}}}}\dfrac{1}{m}({L_{{\rm{emb}}}} - {L_{{\rm{adv}}}})

    ⑥   {\theta _{\boldsymbol{T}}} \leftarrow {\theta _{\boldsymbol{T}}} - \mu \cdot {\nabla _{{\theta _{\boldsymbol{T}}}}}\dfrac{1}{m}({L_{{\rm{emb}}}} - {L_{{\rm{adv}}}})

    ⑦   {\theta _{{S_{\boldsymbol{V}}}}} \leftarrow {\theta _{{S_{\boldsymbol{V}}}}} - \mu \cdot {\nabla _{{\theta _{{S_{\boldsymbol{V}}}}}}}\dfrac{1}{m}({L_{{\rm{emb}}}} - {L_{{\rm{adv}}}})

    ⑧   {\theta _{{S_{\boldsymbol{T}}}}} \leftarrow {\theta _{{S_{\boldsymbol{T}}}}} - \mu \cdot {\nabla _{{\theta _{{S_{\boldsymbol{T}}}}}}}\dfrac{1}{m}({L_{{\rm{emb}}}} - {L_{{\rm{adv}}}})

    ⑨   {\theta _{{\rm{imd}}}} \leftarrow {\theta _{{\rm{imd}}}} - \mu \cdot {\nabla _{{\theta _{{\rm{imd}}}}}}\dfrac{1}{m}({L_{{\rm{emb}}}} - {L_{{\rm{adv}}}})

    ⑩  end for

    ⑪end while

    ⑫通过随机梯度上升更新参数{\theta _{\rm{dis}}}

    {\theta _{\rm{dis}}} \leftarrow {\theta _{\rm{dis}}} + \mu \cdot \lambda \cdot {\nabla _{{\theta _{\rm{dis}}}}}\dfrac{1}{m}({L_{{\rm{emb}}}} - {L_{{\rm{adv}}}}).

    本文分别阐述对实验部分至关重要的研究问题、数据集、对比算法、评价指标等4个方面.

    本文通过3个研究问题来引导实验的设置.

    研究问题1. 面向科技资讯的基于语义对抗和媒体对抗的跨媒体检索方法SMCR的表现能否优于前沿的跨媒体检索算法.

    研究问题2. SMCR方法的主要组成部分对于跨媒体检索是否存在贡献.

    研究问题3. SMCR方法是否对参数敏感.

    为了回答上述3个研究问题,使用爬取自科技资讯网站SciTechDaily[37]的数据集进行实验. 数据集包括5217个图像-文本对,将其中的4173对数据作为训练集,1044对数据作为测试集. 为了验证本文模型的通用性,同时使用Wikipedia[38]数据集进行实验. Wikipedia数据集包括2866个图像-文本对,将其中的2292对数据作为训练集,574对数据作为测试集. 这2个数据集的详细信息如表1所示.

    表  1  实验使用的2个数据集的属性
    Table  1.  Attributes of Two Datasets Used for the Experiments
    数据集训练样本数/测试样本数标签数图像特征文本特征
    SciTechDaily4173/104484096d VGG6500d BoW
    Wikipedia2292/574104096d VGG5000d BoW
    下载: 导出CSV 
    | 显示表格

    本文将SMCR与相关的基准算法和前沿算法进行比较,对比算法如下.

    1)典型关联分析(canonical correlation analysis,CCA). 该模型[12]为不同的媒体类型的数据学习一个公共子空间,使2组异构数据之间的关联最大化.

    2)基于耦合特征选择和子空间学习的联合学习(joint feature selection and subspace learning,JFSSL). 该模型[13]学习投影矩阵将多媒体数据映射到一个公共子空间,并同时从不同的特征空间中选择相关的和有区别的特征.

    3)跨媒体多重深度网络(cross-media multiple deep network,CMDN). 该模型[18]通过分层学习来利用复杂的跨媒体相关性. 在第1阶段,联合对媒体内和媒体信息进行建模;在第2阶段,分层组合媒体间表示和媒体内表示来进一步学习丰富的跨媒体相关性.

    4)基于对抗的跨媒体检索(adversarial cross-modal retrieval,ACMR). 该模型[24]基于对抗性学习寻求有效的公共子空间. 对特征投影器施加3重约束,以最小化来自具有相同语义标签、不同媒体的所有样本表示之间的差距,同时最大化语义不同的图像和文本之间的距离.

    5)深度监督跨媒体检索(deep supervised cross-modal retrieval,DSCMR). 该模型[25]同样基于对抗性学习的思想,将标签空间和公共表示空间中的判别损失最小化,同时最小化媒体不变性损失,并使用权重共享策略来消除公共表示空间中多媒体数据的跨媒体差异.

    6)基于对抗学习和语义相似度的社交网络跨媒体搜索(SSACR). 该模型[26]同样基于对抗性学习的思想,将映射到同一语义空间的不同媒体数据的特征向量进行了相似度计算, 并与原本的语义特征向量之间的相似度进行比较,以消除同一语义下不同媒体数据的差异.

    本文采用跨媒体检索[39-40]中经典的评价指标——平均精度均值(mean average precision,mAP),在文本检索图像txt2img和图像检索文本img2txt 这2个任务上,分别对SMCR和所有对比算法进行评价. 计算mAP,首先需计算R个检索出的文档的平均精度AP = \dfrac{1}{T}\displaystyle\sum_{r = 1}^R {P(r)\delta (r)}. 其中T是检索出的文档中的相关文档数量,P(r)表示前r个检索出的文档的精度,如果第r个检索出的文档是相关的,则\delta (r) = 1,否则\delta (r) = 0. 然后通过对查询集中所有查询的AP值进行平均来计算mAP. mAP值越大,说明跨媒体检索结果越精准.

    本节对所有实验结果进行分析,来回答4.1节提出的研究问题.

    为了回答研究问题1,将SMCR和6个前沿算法分别在SciTechDaily,Wikipedia这2个数据集上进行对比. 对比算法为:1)基于统计关联分析的方法CCA[12],JFSSL[13];2)基于深度学习的方法CMDN[18],ACMR[24],DSCMR[25],SSACR[26].

    表2展示了本文在文本检索图像txt2img和图像检索文本img2txt这2个任务上,对前5个、前25个、前50个的检索结果计算mAP值(mAP@5,mAP@25,mAP@50)和2个检索任务的mAP均值的结果.

    表  2  在SciTechDaily和Wikipedia数据集上的跨媒体检索性能比较
    Table  2.  Comparison of Cross-Media Retrieval Performance on SciTechDaily and Wikipedia Datasets
    数据集算法mAP@5mAP@25mAP@50
    txt2imgimg2txt均值txt2imgimg2txt均值txt2imgimg2txt均值
    SciTechDailyCCA0.23370.18060.20710.23280.17610.20440.22250.17890.2007
    JFSSL0.39840.28520.34180.38170.27770.32970.36990.26470.3173
    CMDN0.44830.35140.39980.42990.34430.38710.42060.32290.3717
    ACMR0.51310.43820.47560.49430.44710.47070.49660.42590.4612
    DSCMR0.50420.45770.48090.48120.46460.47290.48100.44670.4638
    SSACR0.50910.45720.48310.50490.44870.47680.50720.43550.4713
    SMCR(本文)0.52700.47900.50300.52910.47270.50090.51910.44260.4808
    WikipediaCCA0.26390.21540.23960.28830.22550.25690.25750.21520.2363
    JFSSL0.44320.34810.39560.42660.35280.38970.41520.34790.3815
    CMDN0.52650.41940.47290.50460.41710.46080.48740.39380.4406
    ACMR0.63720.49200.56460.62510.49370.55940.58870.48240.5355
    DSCMR0.64130.49630.56880.65140.50820.57980.64520.49730.5712
    SSACR0.66420.49270.57840.66080.50890.58480.64160.49560.5686
    SMCR(本文)0.70140.50590.60360.67140.50030.58580.65030.49590.5731
    注:黑体数值表示最优值.
    下载: 导出CSV 
    | 显示表格

    表2中,我们有以下发现:

    1)SMCR的表现优于所有前沿算法,包括基于统计关联分析的方法和基于深度学习的方法. 其中SMCR方法在前5个、前25个、前50个的检索结果上的mAP均值在2个数据集上均优于目前最前沿的SSACR算法. 这表明,虽然SSACR同样建模了媒体内语义损失和媒体间语义损失,SMCR引入语义内的媒体约束模块,通过更加逼真地映射出难以区分媒体的特征表示,有助于进一步提升跨媒体检索性能.

    2)SMCR和JFSSL,CMDN,ACMR,DSCMR,SSACR等同时建模媒体内相似性和媒体间相似性的模型,效果优于基于图像-文本对建模媒体间相似性的CCA,表明同时考虑媒体内相似性和媒体间相似性能够提高跨媒体检索精度.

    3)SMCR和ACMR,DSCMR,SSACR的跨媒体检索性能优于在多任务学习框架中同样建模了媒体间不变性和媒体内判别性的CMDN,表明对抗学习有助于进一步提升媒体间不变性和媒体内判别性的建模.

    4)SMCR通过分别建模相同语义、不同媒体数据在映射前和映射后的语义相似性,表现优于仅建模相同语义、不同媒体间数据在映射后的语义相似性的ACMR和DSCMR. 这表示建模不同媒体的数据在映射前后的语义不变性有助于提高跨媒体检索精度.

    5)SMCR和所有前沿算法在SciTechDaily,Wikipedia这2个数据集上的表现一致,表明SMCR算法不仅局限于跨媒体科技资讯的检索,而且在通用的跨媒体检索任务中同样具备良好效果.

    为了回答研究问题2,我们将SMCR与去掉媒体间语义损失{L_{{\rm{imi}}}}的SMCR、去掉语义内媒体损失{L_{{\rm{con}}}}的SMCR在SciTechDaily和Wikipedia这2个数据集上进行对比. 由于采用标签分类建模的媒体内语义损失{L_{{\rm{imd}}}}并非本文创新,因此不对去掉{L_{{\rm{imd}}}}的SMCR进行对比,结果如表3表4所示. 从表3表4中有2点发现:

    表  3  SMCR与其变种在SciTechDaily数据集上的表现
    Table  3.  Performance of SMCR and Its Variants in SciTechDaily Dataset
    本文方法mAPtxt2imgimg2txt均值
    SMCR
    (去掉{L_{{\rm{imi}}} }
    mAP@50.51960.46270.4911
    mAP@250.51870.45250.4856
    mAP@500.50240.44080.4716
    SMCR
    (去掉{L_{{\rm{con}}} }
    mAP@50.51550.45130.4834
    mAP@250.50730.44740.4773
    mAP@500.49720.43860.4679
    SMCRmAP@50.52700.47900.5030
    mAP@250.52910.47270.5009
    mAP@500.51910.44260.4808
    下载: 导出CSV 
    | 显示表格
    表  4  SMCR与其变体在Wikipedia数据集上的表现
    Table  4.  Performance of SMCR and Its Variants in Wikipedia Dataset
    本文算法mAPtxt2imgimg2txt均值
    SMCR
    (去掉{L_{{\rm{imi}}} }
    mAP@50.69190.49830.5951
    mAP@250.66220.49370.5779
    mAP@500.64180.49010.5659
    SMCR
    (去掉{L_{{\rm{con}}} }
    mAP@50.68060.50380.5922
    mAP@250.65960.49800.5788
    mAP@500.64160.49380.5677
    SMCRmAP@50.70140.50590.6036
    mAP@250.67140.50030.5858
    mAP@500.65030.49590.5731
    下载: 导出CSV 
    | 显示表格

    1)去掉媒体间语义损失{L_{{\rm{imi}}}}的SMCR和去掉语义内媒体损失{L_{{\rm{con}}}}的SMCR,相比SMCR,跨媒体检索mAP值均有所下降. 这表明在特征映射网络中同时优化媒体间语义损失{L_{{\rm{imi}}}}和语义内媒体损失{L_{{\rm{con}}}}相比单独优化其中一个更有助于提升跨媒体检索表现.

    2)SMCR与其变体在SciTechDaily,Wikipedia这2个数据集上的跨媒体检索表现一致,再次表明SMCR方法并不局限于跨媒体科技资讯检索,而在通用的跨媒体检索任务上同样有效.

    本节回答研究问题3. 式(8)中的特征映射网络的映射性损失{L_{{\rm{emb}}}}\alpha \beta 这2个参数,分别控制媒体间语义损失{L_{{\rm{imi}}}}和语义内媒体损失{L_{{\rm{con}}}}在整体映射性损失{L_{{\rm{emb}}}}中的参与度. 本节在Wikipedia数据集上改变\alpha \beta 的取值,以测试SMCR算法的参数敏感性. 将\alpha \beta 分别取值0.1,1,10,100,特别而言,当\alpha = 0时SMCR退化为去掉媒体间语义损失{L_{{\rm{imi}}}}的SMCR;当\beta = 0时SMCR退化为去掉语义内媒体损失{L_{{\rm{con}}}}的SMCR. 因此\alpha \beta 的取值不为0. 固定一个参数(如\alpha )的前提下,改变另一个参数(如\beta )进行实验,并采用mAP@50分别评估文本检索图像效果、图像检索文本效果、平均检索效果,结果如图2所示.

    图  2  Wikepedia数据集上在\alpha \beta 下的检索效果
    Figure  2.  Retrieval performance with \alpha and \beta in Wikipedia dataset

    图2中可见,当\alpha 取值为0.1, 1, 10和\beta 取值为0.1, 1, 10, 100时,SMCR表现较好. 这表明SMCR对参数不敏感,即泛化能力较好. 特别地,在文本检索图像任务上,当\alpha = 0.1\beta = 0.1时,SMCR表现最优;在图像检索文本任务上,当\alpha = 1\beta = - 1时,SMCR取得最优检索效果;在平均检索效果上,当\alpha = - 1\beta = - 1时,SMCR表现最好.

    本文提出一种面向科技资讯的基于语义对抗和媒体对抗的跨媒体检索方法(SMCR),能够同时学习跨媒体检索中的媒体内判别性、媒体间一致性、语义内判别性表示. SMCR基于对抗学习方法,在极小化极大化游戏中涉及2个过程:生成具有媒体内判别性、媒体间一致性、语义间判别性表示的特征映射网络和试图辨别给定数据原始媒体的媒体判别网络. 本文引入媒体间一致性损失,以确保映射前后的媒体间数据保留语义一致性;此外,引入语义内媒体判别性损失,以确保映射后的数据在语义上接近自身,媒体上远离自身来增强特征映射网络混淆媒体判别网络的能力. 在2个跨媒体数据集上进行的综合实验结果证明了SMCR方法的有效性,且在跨媒体检索上的表现优于最前沿的方法.

    作者贡献声明:李昂负责论文初稿撰写及修改、实验设计验证与核实;杜军平负责论文审阅与修订、研究课题监管与指导;寇菲菲负责指导实验方法设计;薛哲负责指导论文选题;徐欣和许明英负责实际调查研究;姜阳负责数据分析与管理.

  • 图  1   SMCR的整体框架

    Figure  1.   The overall framework of SMCR

    图  2   Wikepedia数据集上在\alpha \beta 下的检索效果

    Figure  2.   Retrieval performance with \alpha and \beta in Wikipedia dataset

    表  1   实验使用的2个数据集的属性

    Table  1   Attributes of Two Datasets Used for the Experiments

    数据集训练样本数/测试样本数标签数图像特征文本特征
    SciTechDaily4173/104484096d VGG6500d BoW
    Wikipedia2292/574104096d VGG5000d BoW
    下载: 导出CSV

    表  2   在SciTechDaily和Wikipedia数据集上的跨媒体检索性能比较

    Table  2   Comparison of Cross-Media Retrieval Performance on SciTechDaily and Wikipedia Datasets

    数据集算法mAP@5mAP@25mAP@50
    txt2imgimg2txt均值txt2imgimg2txt均值txt2imgimg2txt均值
    SciTechDailyCCA0.23370.18060.20710.23280.17610.20440.22250.17890.2007
    JFSSL0.39840.28520.34180.38170.27770.32970.36990.26470.3173
    CMDN0.44830.35140.39980.42990.34430.38710.42060.32290.3717
    ACMR0.51310.43820.47560.49430.44710.47070.49660.42590.4612
    DSCMR0.50420.45770.48090.48120.46460.47290.48100.44670.4638
    SSACR0.50910.45720.48310.50490.44870.47680.50720.43550.4713
    SMCR(本文)0.52700.47900.50300.52910.47270.50090.51910.44260.4808
    WikipediaCCA0.26390.21540.23960.28830.22550.25690.25750.21520.2363
    JFSSL0.44320.34810.39560.42660.35280.38970.41520.34790.3815
    CMDN0.52650.41940.47290.50460.41710.46080.48740.39380.4406
    ACMR0.63720.49200.56460.62510.49370.55940.58870.48240.5355
    DSCMR0.64130.49630.56880.65140.50820.57980.64520.49730.5712
    SSACR0.66420.49270.57840.66080.50890.58480.64160.49560.5686
    SMCR(本文)0.70140.50590.60360.67140.50030.58580.65030.49590.5731
    注:黑体数值表示最优值.
    下载: 导出CSV

    表  3   SMCR与其变种在SciTechDaily数据集上的表现

    Table  3   Performance of SMCR and Its Variants in SciTechDaily Dataset

    本文方法mAPtxt2imgimg2txt均值
    SMCR
    (去掉{L_{{\rm{imi}}} }
    mAP@50.51960.46270.4911
    mAP@250.51870.45250.4856
    mAP@500.50240.44080.4716
    SMCR
    (去掉{L_{{\rm{con}}} }
    mAP@50.51550.45130.4834
    mAP@250.50730.44740.4773
    mAP@500.49720.43860.4679
    SMCRmAP@50.52700.47900.5030
    mAP@250.52910.47270.5009
    mAP@500.51910.44260.4808
    下载: 导出CSV

    表  4   SMCR与其变体在Wikipedia数据集上的表现

    Table  4   Performance of SMCR and Its Variants in Wikipedia Dataset

    本文算法mAPtxt2imgimg2txt均值
    SMCR
    (去掉{L_{{\rm{imi}}} }
    mAP@50.69190.49830.5951
    mAP@250.66220.49370.5779
    mAP@500.64180.49010.5659
    SMCR
    (去掉{L_{{\rm{con}}} }
    mAP@50.68060.50380.5922
    mAP@250.65960.49800.5788
    mAP@500.64160.49380.5677
    SMCRmAP@50.70140.50590.6036
    mAP@250.67140.50030.5858
    mAP@500.65030.49590.5731
    下载: 导出CSV
  • [1] 方滨兴. 建设新时代网络空间安全产学研合作促进新态势[J]. 中国科技产业,2022,36(2):4−5 doi: 10.16277/j.cnki.cn11-2502/n.2022.02.003

    Fang Binxing. Building a new era of cyberspace security, promoting new trends in industry university research cooperation[J]. Science & Technology Industry of China, 2022, 36(2): 4−5 (in Chinese) doi: 10.16277/j.cnki.cn11-2502/n.2022.02.003

    [2]

    Peng Yuxin, Huang Xin, Zhao Yunzhen. An overview of cross-media retrieval: Concepts, methodologies, benchmarks, and challenges[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2018, 28(9): 2372−2385 doi: 10.1109/TCSVT.2017.2705068

    [3] Kaur P, Pannu S, Malhi K. Comparative analysis on cross-modal information retrieval: A review [J]. Computer Science Review, 2021, 39(1): 100336
    [4] 冯霞,胡志毅,刘才华. 跨模态检索研究进展综述[J]. 计算机科学,2021,48(8):13−23 doi: 10.11896/jsjkx.200800165

    Feng Xia, Hu Zhiyi, Liu Caihua. Survey of research progress on cross-modal retrieval[J]. Computer Science, 2021, 48(8): 13−23 (in Chinese) doi: 10.11896/jsjkx.200800165

    [5] 刘兴波,聂秀山,尹义龙. 基于双向线性回归的监督离散跨模态散列方法[J]. 计算机研究与发展,2020,57(8):1707−1714 doi: 10.7544/issn1000-1239.2020.20200122

    Liu Xingbo, Nie Xiushan, Yin Yilong. Mutual linear regression based supervised discrete cross-modal hashing[J]. Journal of Computer Research and Development, 2020, 57(8): 1707−1714 (in Chinese) doi: 10.7544/issn1000-1239.2020.20200122

    [6]

    Li Weiling, Tang Yong, Chen Guohua, et al. Implementation of academic news recommendation system based on user profile and message semantics [C] //Proc of the 9th Int Symp on Intelligence Computation and Applications. Berlin: Springer, 2017: 531−540

    [7]

    Salehi S, Du J, Ashman H. Examining personalization in academic web search [C] //Proc of the 26th ACM Conf on Hypertext & Social Media (HT’15). New York: ACM, 2015: 103−111

    [8]

    Wei Yunchao, Zhao Yao, Zhu Zhenfeng, et al. Modality-dependent cross-media retrieval[J]. ACM Transactions on Intelligent Systems and Technology, 2016, 7(4): 1−13

    [9] 张璐,曹峰,梁新彦,等. 基于关联特征传播的跨模态检索[J]. 计算机研究与发展,2022,59(9):1993−2002 doi: 10.7544/issn1000-1239.20210475

    Zhang Lu, Cao Feng, Liang Xinyan, et al. Cross-modal retrieval with correlation feature propagation[J]. Journal of Computer Research and Development, 2022, 59(9): 1993−2002 (in Chinese) doi: 10.7544/issn1000-1239.20210475

    [10]

    Wang Kaiye, He Ran, Wang Wei, et al. Learning coupled feature spaces for cross-modal matching [C] //Proc of the 13th IEEE Int Conf on Computer Vision (ICCV’13). Piscataway, NJ: IEEE, 2013: 2088−2095

    [11]

    Hu Weiming, Gao Jun, Li Bing, et al. Anomaly detection using local kernel density estimation and context-based regression[J]. IEEE Transactions on Knowledge and Data Engineering, 2018, 32(2): 218−233

    [12]

    Hardoon D, Szedmak S, Shawe-Taylor J. Canonical correlation analysis: An overview with application to learning methods[J]. Neural Computation, 2004, 16(12): 2639−2664 doi: 10.1162/0899766042321814

    [13]

    Wang Kaiye, He Ran, Wang Liang, et al. Joint feature selection and subspace learning for cross-modal retrieval[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 38(10): 2010−2023

    [14]

    Zhai Xiaohua, Peng Yuxin, Xiao Jianguo. Learning cross-media joint representation with sparse and semisupervised regularization[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2014, 24(6): 965−978 doi: 10.1109/TCSVT.2013.2276704

    [15]

    Gong Yunchao, Ke Qifa, Isard M, et al. A multi-view embedding space for modeling internet images, tags, and their semantics[J]. International Journal of Computer Vision, 2014, 106(2): 210−233 doi: 10.1007/s11263-013-0658-4

    [16]

    Feng Fangxiang, Wang Xiaojie, Li Ruifan. Cross-modal retrieval with correspondence autoencoder [C] //Proc of the 22nd ACM Int Conf on Multimedia (MM’14). New York: ACM, 2014: 7−16

    [17]

    Yan Fei, Mikolajczyk K. Deep correlation for matching images and text [C] //Proc of the 33rd IEEE Conf on Computer Vision and Pattern Recognition (CVPR’15). Piscataway, NJ: IEEE, 2015: 3441−3450

    [18]

    Peng Yuxin, Huang Xin, Qi Jinwei. Cross-media shared representation by hierarchical learning with multiple deep networks [C] //Proc of the 25th Int Joint Conf on Artificial Intelligence (IJCAI’16). Palo Alto, CA: AAAI, 2016: 3846−3853

    [19]

    Kou Feifei, Du Junping, He Yijiang, et al. Social network search based on semantic analysis and learning[J]. CAAI Transactions on Intelligence Technology, 2016, 1(4): 293−302 doi: 10.1016/j.trit.2016.12.001

    [20] Xu Liang, Du Junping, Li Qingping. Image fusion based on nonsubsampled contourlet transform and saliency-motivated pulse coupled neural networks [J]. Mathematical Problems in Engineering, 2013, 19(1): 135182
    [21]

    Ngiam J, Khosla A, Kim M, et al. Multimodal deep learning [C] //Proc of the 28th Int Conf on Machine Learning (ICML’11). New York: ACM, 2011: 689−696

    [22]

    He Li, Xu Xing, Lu Huimin, et al. Unsupervised cross-modal retrieval through adversarial learning [C] //Proc of the 18th IEEE Int Conf on Multimedia and Expo (ICME’17). Piscataway, NJ: IEEE, 2017: 1153−1158

    [23]

    Li Chao, Deng Cheng, Li Ning, et al. Self-supervised adversarial hashing networks for cross-modal retrieval [C] //Proc of the 36th IEEE Conf on Computer Vision and Pattern Recognition (CVPR’18). Piscataway, NJ: IEEE, 2018: 4242−4251

    [24]

    Wang Bokun, Yang Yang, Xu Xing, et al. Adversarial cross-modal retrieval [C] //Proc of the 25th ACM Int Conf on Multimedia (MM’17). New York: ACM, 2017: 154−162

    [25]

    Zhen Liangli, Hu Peng, Wang Xu, et al. Deep supervised cross-modal retrieval [C] //Proc of the 37th IEEE Conf on Computer Vision and Pattern Recognition (CVPR’19). Piscataway, NJ: IEEE, 2019: 10386−10395

    [26] 刘翀,杜军平,周南. 一种基于对抗学习和语义相似度的社交网络跨媒体搜索方法[J]. 中国科学:信息科学,2021,51(5):779−794 doi: 10.1360/SSI-2019-0120

    Liu Chong, Du Junping, Zhou Nan. A cross media search method for social networks based on adversarial learning and semantic similarity[J]. SCIENTIA SINICA Informationis, 2021, 51(5): 779−794 (in Chinese) doi: 10.1360/SSI-2019-0120

    [27]

    Goodfellow I, Pouget-Abadie J, Mirza M, et al. Generative adversarial nets [C] //Proc of the 27th Int Conf on Neural Information Processing Systems (NIPS’14). Cambridge, MA: MIT Press, 2014: 2672−2680

    [28]

    Li Chao, Deng Cheng, Li Ning, et al. Self-supervised adversarial hashing networks for cross-modal retrieval [C] //Proc of the 36th IEEE Conf on Computer Vision and Pattern Recognition (CVPR’18). Piscataway, NJ: IEEE, 2018: 4242−4251

    [29]

    Yu Chaohui, Wang Jindong, Chen Yiqiang, et al. Transfer learning with dynamic adversarial adaptation network [C] //Proc of the 19th IEEE Int Conf on Data Mining (ICDM’19). Piscataway, NJ: IEEE, 2019: 778−786

    [30]

    Xue Zhe, Du Junping, Du Dawei, et al. Deep low-rank subspace ensemble for multi-view clustering[J]. Information Sciences, 2019, 482(5): 210−227

    [31] Fang Yuke, Deng Weihong, Du Junping, et al. Identity-aware CycleGAN for face photo-sketch synthesis and recognition [J]. Pattern Recognition, 2020, 102(6): 107249
    [32]

    Radford A, Metz L, Chintala S. Unsupervised representation learning with deep convolutional generative adversarial networks [J]. arXiv preprint, arXiv: 1511.06434, 2015

    [33]

    Ganin Y, Lempitsky V. Unsupervised domain adaptation by backpropagation [C] //Proc of the 32nd Int Conf on Machine Learning (ICML ’15). New York: ACM, 2015: 1180−1189

    [34]

    Hoffer E, Ailon N. Deep metric learning using triplet network [C] //Proc of the 3rd Int Workshop on Similarity-Based Pattern Recognition. Berlin: Springer, 2015: 84−92

    [35]

    Liang Xiaodan, Zhang Hao, Lin Liang, et al. Generative semantic manipulation with mask-contrasting GAN [C] //Proc of the 15th European Conf on Computer Vision (ECCV’18). Berlin: Springer, 2018: 574−590

    [36]

    Xiong Wei, Luo Wenhan, Ma Lin, et al. Learning to generate time-lapse videos using multi-stage dynamic generative adversarial networks [C] //Proc of the 36th IEEE Conf on Computer Vision and Pattern Recognition (CVPR’18). Piscataway, NJ: IEEE, 2018: 2364−2373

    [37]

    SCITECHDAILY. SciTechDaily [EB/OL]. [2022-01-01].https://scitechdaily.com/news/technology

    [38]

    Costa J, Coviello E, Doyle G, et al. On the role of correlation and abstraction in cross-modal multimedia retrieval[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36(3): 521−535 doi: 10.1109/TPAMI.2013.142

    [39]

    Peng Yuxin, Huang Xin, Qi Jinwei. Cross-media shared representation by hierarchical learning with multiple deep networks [C] //Proc of the 25th Int Joint Conf on Artificial Intelligence (IJCAI’16). Palo Alto, CA: AAAI, 2016: 3846−3853

    [40]

    Ranjan V, Rasiwasia N, Jawahar C. Multi-label cross-modal retrieval [C] //Proc of the 15th IEEE Int Conf on Computer Vision (ICCV’15). Piscataway, NJ: IEEE, 2015: 4094−4102

图(2)  /  表(4)
计量
  • 文章访问数:  120
  • HTML全文浏览量:  6
  • PDF下载量:  69
  • 被引次数: 0
出版历程
  • 收稿日期:  2022-05-27
  • 修回日期:  2022-11-17
  • 网络出版日期:  2023-05-03
  • 刊出日期:  2023-10-31

目录

/

返回文章
返回