Task Allocation Model Based on Deep Reinforcement Learning ConsideringPrivacy Protection
-
摘要:
移动群智感知(mobile crowdsensing, MCS)是利用大规模移动智能设备进行数据收集、数据挖掘和智能决策的新范式,高效的任务分配方法是MCS获得高性能的关键. 传统的贪婪算法或蚂蚁算法假设工人和任务固定,不适用于工人和任务的位置、数量和时间动态变化的场景. 而且,现有任务分配方法通常由中央服务器收集工人和任务的信息进行决策,容易导致工人隐私泄露. 因此,提出具有隐私保护的深度强化学习(deep reinforcement learning, DRL)模型来获得优化的任务分配策略. 首先,将任务分配建模为多目标优化的动态规划问题,旨在最大化工人和平台的双向收益,实现纳什均衡. 其次,提出基于DRL的近端策略优化(proximal policy optimization, PPO)模型进行训练,学习模型参数. 最后,通过本地差分隐私方式,对工人位置等敏感信息加入随机噪声实现隐私保护,并由中央服务器训练整个模型,获得最优分配策略. 对收敛时间、最大收益和任务覆盖率等指标进行实验评估,在模拟数据集上的实验结果表明,与传统方法和其他基于DRL的方法对比,该方法在不同的评估指标上均有明显提升,并且能够保护工人的隐私.
Abstract:Mobile crowdsensing (MCS) is a new mode for collecting and mining data and intelligent decision-making with mobile intelligent devices. The key to the high performance of MCS is the efficient method of task allocation. The traditional algorithm (greedy algorithm or ant algorithm) assumes that workers and tasks are static. It’s not fit for the scene where the position and time of workers and tasks change continuously. In addition, the existing methods usually make decisions by the central server based on the collected information, which usually leads to leakage of workers’ privacy. Therefore, we propose a task allocation method based on deep reinforcement learning (DRL) with privacy protection. Firstly, aiming to maximize the two-way benefits of workers and platforms and realize Nash equilibrium, the task allocation is modeled as a dynamic programming problem of multi-objective optimization. Secondly, the model based on proximal policy optimization (PPO) of DRL for training and learning model parameters is proposed. Finally, we use the local differential privacy method to add random noise to the sensitive information of workers to protect privacy. The central server trains the whole model to obtain the optimal allocation strategy. In this paper, the astringency, revenue and task cover rate are experimentally evaluated. The results show that the proposed method has significant improvement in different indexes, and can protect the privacy of workers, compared with the traditional methods and other DRL based methods.
-
科技资讯聚焦了中外高新技术的前沿动态. 实时跟进最新的科技资讯,有助于促进国家战略科技力量的发展,驱动科技创新,进而确保国家高质量发展[1]. 科技资讯中包含大量的多媒体信息(如图像、文本等),具备体量大、来源丰富、类型多样等特点[2-3]. 随着用户感兴趣的科技资讯模态不再单一,检索需求也呈现出从单一模态到跨模态的发展态势[4-5]. 凭借跨媒体科技资讯检索,用户能够从多源异构的海量科技资源中获取目标科技资讯;研究者亦能近一步设计出符合用户需求的应用,包括科技资讯推荐[6]、个性化科技资讯检索[7]等. 跨媒体科技资讯检索作为当下的研究热点,仍旧面临着多媒体数据间异构鸿沟和语义鸿沟亟待打破的难题[8-9]. 本文旨在解决现有跨媒体科技资讯检索中仅考虑了媒体内数据判别损失和媒体间数据在映射后的不变性损失,却忽略了媒体间数据在映射前后的语义一致性损失和语义内的媒体判别性损失,使得跨媒体检索效果存在局限性的问题.
跨媒体科技资讯检索方法种类繁多. 先前的工作[10-14]聚焦于传统的统计关联分析方法,通过优化统计值来学习公共空间的线性投影矩阵[15],目的是建立一个共享子空间,使得不同媒体类型的数据对象的相似性可以映射到该子空间中,再使用常见的距离进行度量. 然而,文献[10-14]所述的方法依赖于数据的线性表示,仅通过线性投影很难完全模拟现实世界中跨媒体数据的复杂相关性. 因此,一些研究[16-20]通过深度学习方法解决上述问题,利用其强大的抽象能力处理多媒体数据的多层非线性变换,进行跨媒体相关学习. 然而,现有的基于深度学习的跨媒体检索模型通常只专注于保留耦合的跨媒体样本(例如图像和文本)的成对相似性[21],却忽略了一种媒体的一个样本可能存在多个相同媒体的语义不同的样本,因此无法保留跨媒体语义结构. 保留跨媒体语义结构需要使得相同语义不同媒体的数据间距离最小化,且相同媒体不同语义的数据间距离最大化. 最近的工作[22-26]引入对抗学习的思想,通过联合执行标签预测并保留数据中的底层跨媒体语义结构,为公共子空间中不同媒体的样本生成媒体不变表示. 然而,文献[22-26]所述的方法聚焦于建模媒体内数据的语义判别性和媒体间数据在子空间映射后的语义不变性,却忽略了媒体间数据在映射前后的语义一致性和语义内的媒体判别性,使得跨媒体检索效果存在局限性.
针对上述问题,引入语义内的媒体约束来加强将不同类型的媒体数据映射到共享高级语义空间的能力,提出一种面向科技资讯的基于语义对抗和媒体对抗的跨媒体检索(semantics-adversarial and media-adversarial cross-media retrieval,SMCR)方法. SMCR方法采用对抗博弈[27]的思想,构建特征映射器和媒体判别器,进行极小化极大化游戏.SMCR方法追随先前工作[28-29],采用标签预测来确保数据在特征投影后仍保留在媒体内的区别. 与先前工作不同的是,SMCR方法同时最小化相同语义的文本−图像对中不同媒体的数据分别在特征映射前和特征映射后的距离,以确保不同媒体间数据在映射过程中的语义一致性得以保留. 此外,通过构建基础映射网络和精炼映射网络共同辅助建模语义内的媒体约束,使映射后的数据做到语义上接近自身和媒体上远离自身,来增强特征映射网络混淆媒体判别网络的能力. 媒体判别网络负责区分数据的原始媒体,一旦媒体判别网络被欺骗,整个博弈过程收敛.
本文的主要贡献包括3个方面:
1)提出一种面向科技资讯的基于语义对抗和媒体对抗的跨媒体检索方法(SMCR),通过端到端的方式同时保持媒体内的语义判别性、媒体间的语义一致性、语义内的媒体判别性,能够有效地学习异构数据的公共表示;
2)通过构建基础特征映射网络和精炼特征映射网络联合进行多媒体数据特征映射,辅助语义内的媒体约束,有效地增强了特征映射网络混淆媒体判别网络的能力;
3) 在2个数据集上进行的大量实验表明,本文提出的SMCR方法优于当前最前沿的跨媒体检索方法,包括传统的方法和基于深度学习的方法.
1. 相关工作
科技资讯跨媒体检索是近年来的研究热点,旨在学习一个公共子空间[13,24,30],使得不同媒体的数据在该子空间中可以直接相互比较,以跨越不同媒体间存在的语义鸿沟.
一类经典的方法当属传统的统计关联分析方法[10-14],它是公共空间学习方法的基本范式和基础,主要通过优化统计值来学习公共空间的线性投影矩阵. 例如,Hardoon等人[12]提出典型关联分析(canonical correlation analysis,CCA)方法,CCA方法是一种关联2个多维变量之间线性关系的方法,可以被视为使用复杂标签作为引导特征选择朝向底层语义的一种方式. 该方法利用同一语义对象的2个视角来提取语义的表示. Wang等人[13]提出一种基于耦合特征选择和子空间学习的联合学习(joint feature selection and subspace learning,JFSSL),受CCA和线性最小二乘法之间潜在关系的启发,将耦合线性回归用于学习投影矩阵,使来自不同媒体的数据映射到公共子空间中. 同时,JFSSL将l2正则用于同时从不同的特征空间中选择相关和不相关的特征,并且在映射时使用多媒体图正则化来保留媒体间和媒体内的相似性关系.Zhai等人[14]提出了一种新的跨媒体数据特征学习算法,称为联合表示学习(joint representation learning,JRL). 该方法能够在统一的优化框架中联合探索相关性和语义信息,并将所有媒体类型的稀疏和半监督正则化集成到一个统一的优化问题中. JRL旨在同时学习不同媒体的稀疏投影矩阵,并将原始异构特征直接投影到联合空间中. 然而,仅通过线性投影很难完全模拟现实世界中跨媒体数据的复杂相关性.
随着深度学习的兴起,许多研究聚焦于将能够实现多层非线性变换的深度神经网络应用于跨媒体检索中[16-20]. 例如,Yan等人[17]提出一种基于深度典型相关分析(deep canonical correlation analysis,DCCA)的跨媒体图像字幕匹配方法. 通过解决非平凡的复杂性和过度拟合问题,使该方法适用于高维图像和文本表示以及大型数据集.Peng等人[18]提出一种跨媒体多重深度网络(cross-media multiple deep network,CMDN),通过分层学习来利用复杂而丰富的跨媒体相关性. 在第1阶段,CMDN不像先前工作仅利用媒体内的分离表示,而是联合学习每种媒体类型的2种互补的分离表示;在第2阶段,由于每种媒体类型都有2个互补的独立表示,该方法在更深的2级网络中分层组合单独的表示,以便联合建模媒体间和媒体内的信息以生成共享表示. 然而,现有的基于深度神经网络的跨媒体检索模型通常只专注于保留耦合的跨媒体样本(例如图像和文本)的成对相似性,却忽略了一种媒体的一个样本,可能存在多个相同媒体的语义不同的样本,因此无法保留跨媒体语义结构.
近年来,相关研究转而向对抗学习[31]进行探索. 虽然它在图像生成[32]中应用较广,但研究者也将其用作正则化器[33]. 一些研究将其思想应用于跨媒体检索,并取得了显著的效果[22-26]. 例如,Wang等人[24]提出一种基于对抗跨媒体检索(adversarial cross-modal retrieval,ACMR)方法来解决跨媒体语义结构难保留的问题. 该方法使用特征投影器,通过联合执行标签预测并保留数据中的底层跨媒体语义结构,为公共子空间中不同媒体的样本生成媒体不变表示. ACMR的目的是混淆充当对手的媒体分类器,媒体分类器试图根据它们的媒体来区分样本,并以这种方式引导特征投影器的学习. 通过这个过程的收敛,即当媒体分类器失败时,表示子空间对于跨媒体检索是最优的. Zhen等人[25]提出一种深度监督跨媒体检索(deep supervised cross-modal retrieval,DSCMR)方法,旨在找到一个共同的表示空间,以便在其中直接比较来自不同媒体的样本. 该方法将标签空间和公共表示空间中的判别损失最小化,以监督模型学习判别特征. 同时最小化媒体不变性损失,并使用权重共享策略来消除公共表示空间中多媒体数据的跨媒体差异,以学习媒体不变特征. 刘翀等人[26]提出一种基于对抗学习和语义相似度的社交网络跨媒体搜索方法(semantic similarity based adversarial cross media retrieval,SSACR),SSACR使用语义分布及相似度作为特征映射网训练依据,使得相同语义下的不同媒体数据在该空间距离小、不同语义下的相同媒体数据距离大,最终在同一空间内使用相似度来排序并得到搜索结果. 然而,文献[24-26]聚焦于建模媒体内数据语义损失和媒体间数据在映射后的语义损失,却忽略了媒体间数据在映射前后的语义一致性和语义内的媒体判别性,使得跨媒体检索效果存在局限性.
2. 问题定义
多媒体数据种类繁多,为了不失通用性,本文聚焦于文本、图像2种媒体的跨媒体检索. 给定一系列语义相关的图像-文本对m={m1,m2,…,m|m|},其中{m_i} = ({{\boldsymbol{v}}_i},{{\boldsymbol{t}}_i})表示 m 中的第i个图像-文本对,{{\boldsymbol{v}}_i} \in {\mathbb{R}^{{d_{\rm{vis}}}}}表示维度为{d_{\rm{vis}}}的图像特征向量,{{\boldsymbol{t}}_i} \in {\mathbb{R}^{{d_{\rm{tex}}}}}表示维度为{d_{\rm{tex}}}的文本特征向量. 每个图像-文本对都对应着一个语义类别向量{{\boldsymbol{l}}_i} = ({y_1},{y_2}, … ,{y_C}) \in {\mathbb{R}^C},用来表示图像-文本对的语义分布,也可以表示类别标签分布. 其中C表示语义类别总数,假设{{\boldsymbol{l}}_i}属于第j个语义类别,则记{y_j} = 1,否则记{y_j} = 0. 记 m 中所有的图像、文本、语义类别所对应的特征矩阵为{\boldsymbol{V}} = ({{\boldsymbol{v}}_1},{{\boldsymbol{v}}_2}, … ,{{\boldsymbol{v}}_N}) \in {\mathbb{R}^{{d_{\rm{vis}}} \times N}},{\boldsymbol{T}} = ({{\boldsymbol{t}}_1}, {{\boldsymbol{t}}_2}, … ,{{\boldsymbol{t}}_N}) \in {\mathbb{R}^{{d_{\rm{tex}}} \times N}},{\boldsymbol{L}} = ({{\boldsymbol{l}}_1},{{\boldsymbol{l}}_2}, … ,{{\boldsymbol{l}}_N}) \in {\mathbb{R}^{C \times N}}.
我们的目标是利用一种媒体的数据(如图像{{\boldsymbol{v}}_i}或文本{{\boldsymbol{t}}_i})检索另一种媒体的数据(如文本{{\boldsymbol{t}}_i}或图像{{\boldsymbol{v}}_i}). 为了比较不同媒体数据之间的语义相似性,我们设计2个特征映射网络——基础映射网络和精炼映射网络. 基础映射网络将图像特征和文本特征映射到统一的隐语义空间S中以进行语义相似性的对比. 图像特征{\boldsymbol{V}}映射到隐语义空间S后的特征记为{S_{\boldsymbol{V}}} = {f_{\boldsymbol{V}}}({\boldsymbol{V}};{\theta _{\boldsymbol{V}}}),文本特征{\boldsymbol{T}}映射到隐语义空间S后的特征记为{S_{\boldsymbol{T}}} = {f_{\boldsymbol{T}}}({\boldsymbol{T}};{\theta _{\boldsymbol{T}}}). 其中{f_{\boldsymbol{V}}}({\boldsymbol{V}};{\theta _{\boldsymbol{V}}})和{f_{\boldsymbol{T}}}({\boldsymbol{T}};{\theta _{\boldsymbol{T}}})分别表示图像和文本的映射函数. 为了近一步提高特征映射质量,我们用精炼映射网络对基础映射网络的输出特征进行映射. 图像特征 {S_{\boldsymbol{V}}} 映射后的特征记为S_{\boldsymbol{V}}' = {g_{{S_{\boldsymbol{V}}}}}({S_{\boldsymbol{V}}};{\theta _{{S_{\boldsymbol{V}}}}}),文本特征 {S_{\boldsymbol{T}}} 映射后的特征记为S_{\boldsymbol{T}}' = {g_{{S_{\boldsymbol{T}}}}}({S_{\boldsymbol{T}}};{\theta _{{S_{\boldsymbol{T}}}}}). 其中{g_{{S_{\boldsymbol{V}}}}}({S_{\boldsymbol{V}}};{\theta _{{S_{\boldsymbol{V}}}}})和{g_{{S_{\boldsymbol{T}}}}}({S_{\boldsymbol{T}}};{\theta _{{S_{\boldsymbol{T}}}}})表示图像特征和文本特征的映射函数.
3. 面向科技资讯的基于语义对抗和媒体对抗的跨媒体检索方法
本文提出一种面向科技资讯的基于语义对抗和媒体对抗的跨媒体检索方法(SMCR).SMCR的框架如图1所示. 本文的目的是利用对抗学习的思想不断在语义与媒体间进行对抗,学习到一个公共子空间,使不同媒体的数据在该子空间中可以直接相互比较.
3.1 特征映射网络
本文采用特征映射网络是为了将不同媒体的特征映射到统一的隐语义空间以便进行语义相似性的比较. 同时,特征映射网络也扮演着GAN[27]中“生成器”的角色,目的是为了迷惑媒体判别网络(将在3.2节介绍). 为了使映射后的特征表示充分考虑2类媒体数据的语义相似性和媒体相似性,本文设计的特征映射网络由3部分组成:媒体内的标签预测、媒体间的语义保留、语义内的媒体约束. 媒体内的标签预测使得映射在隐语义空间S中的特征依然能够以原始的语义标签为真值进行语义分类;媒体间的语义保留使得语义相同媒体不同的数据在映射前后都能保留语义相似性;语义内的媒体约束使得映射后的数据更加逼近原本语义.
3.1.1 标签预测
为了保证映射到隐语义空间S中的特征依然能够保留原始语义,以原始的语义标签为真值进行语义分类. 在每个特征映射网络的最后加入一个保持线性激活的softmax层. 将图像-文本对{m_i} = ({{\boldsymbol{v}}_i},{{\boldsymbol{t}}_i})作为样本进行训练,并输出每个数据对应语义类别的概率分布. 采用在文献[24]中介绍的损失函数来计算媒体内的判别损失:
{L_{{\rm{imd}}}}({\theta _{{\rm{imd}}}}) = - \frac{1}{n}\sum\limits_{i = 1}^n {({{\boldsymbol{l}}_i} · (\ln {{\hat p}_i}({{\boldsymbol{v}}_i}) + \ln {{\hat p}_i}({{\boldsymbol{t}}_i})))} . (1) 其中 {L_{{\rm{imd}}}} 表示对所有图像-文本对进行语义类别分类的交叉熵损失,{\theta _{{\rm{imd}}}}表示分类器的参数,{{\boldsymbol{l}}_i}是每个样本{m_i}的真值, {\hat p_i} 是样本中每个数据(图像或文本)所得到的概率分布.
3.1.2 语义保留
语义保留模块致力于保证语义相同、媒体不同的数据在映射前后都能保留语义相似性,即媒体不同、语义相同的数据距离较近,媒体不同、语义不同的数据距离较远. 在映射到隐语义空间S之前,每个样本{m_i}中的图像数据与文本数据的语义分布分别为{{\boldsymbol{l}}_{\rm{vis}}}和{{\boldsymbol{l}}_{\rm{tex}}},那么2个不同媒体数据间的语义一致性损失用{l_2}范数表示为
{l_2}({{\boldsymbol{l}}_{\rm{vis}}},{{\boldsymbol{l}}_{\rm{tex}}}) = {\left\| {{{\boldsymbol{l}}_{\rm{vis}}} - {{\boldsymbol{l}}_{\rm{tex}}}} \right\|_2} . (2) 在映射到隐语义空间S之后,每个样本{m_i}中的图像数据特征{S_{\boldsymbol{V}}}与文本数据的特征{S_{\boldsymbol{T}}}之间的语义一致性损失同样用{l_2}范数表示为
{l_2}({S_{\boldsymbol{V}}},{S_{\boldsymbol{T}}}) = {\left\| {{f_{\boldsymbol{V}}}({\boldsymbol{V}};{\theta _{\boldsymbol{V}}}) - {f_{\boldsymbol{T}}}({\boldsymbol{T}};{\theta _{\boldsymbol{T}}})} \right\|_2} . (3) 因此,整体的媒体间一致性损失可以建模为{l_2}({{\boldsymbol{l}}_{\rm{vis}}},{{\boldsymbol{l}}_{\rm{tex}}})和{l_2}({S_{\boldsymbol{V}}},{S_{\boldsymbol{T}}})两者的结合:
{L_{{\rm{imi}}}}({\theta _{\boldsymbol{V}}},{\theta _{\boldsymbol{T}}}) = {l_2}({{\boldsymbol{l}}_{\rm{vis}}},{{\boldsymbol{l}}_{\rm{tex}}}) + {l_2}({S_{\boldsymbol{V}}},{S_{\boldsymbol{T}}}) , (4) 其中{L_{{\rm{imi}}}}表示媒体间同时考虑映射前与映射后的语义一致性损失.
3.1.3 媒体约束
除了便于度量不同媒体数据间的语义相似性之外,特征映射网络的另一个作用是生成映射后的特征来欺骗媒体判别网络,让它无法区分出数据的原始媒体. 因此,引入语义内的媒体约束模块. 为了能够更加逼真地映射出难以区分媒体的特征,在基础的特征映射网络{P_1}之外,构造另一个相同结构的特征映射网络{P_2},称为精炼网络. 精炼网络{P_2}的输入是{P_1}的输出结果{S_{\boldsymbol{V}}}或{S_{\boldsymbol{T}}}. {P_2}的输出是S_{\boldsymbol{V}}' = {g_{{S_{\boldsymbol{V}}}}}({S_{\boldsymbol{V}}};{\theta _{{S_{\boldsymbol{V}}}}})或S_{\boldsymbol{T}}' = {g_{{S_{\boldsymbol{T}}}}}({S_{\boldsymbol{T}}};{\theta _{{S_{\boldsymbol{T}}}}}). 其中S_{\boldsymbol{V}}'和S_{\boldsymbol{T}}'分别表示{S_{\boldsymbol{V}}}和{S_{\boldsymbol{T}}}经过特征映射网络{P_2}映射后的特征,{g_{{S_{\boldsymbol{V}}}}}({S_{\boldsymbol{V}}};{\theta _{{S_{\boldsymbol{V}}}}})和{g_{{S_{\boldsymbol{T}}}}}({S_{\boldsymbol{T}}};{\theta _{{S_{\boldsymbol{T}}}}})分别表示{S_{\boldsymbol{V}}}和{S_{\boldsymbol{T}}}这2种特征的映射函数.
对每一个图像-文本对{m_i}而言,目标是让精炼网络{P_2}映射出的特征(S_{\boldsymbol{V}}'或S_{\boldsymbol{T}}')距离基础网络{P_1}映射的特征({S_{\boldsymbol{V}}}或{S_{\boldsymbol{T}}})较远,距离相同语义的特征({S_{\boldsymbol{T}}}或{S_{\boldsymbol{V}}})较近. 受到文献[34-36]启发,语义内的媒体判别损失采用如下约束损失进行计算:
{L_{{\rm{con}},{\boldsymbol{V}}}}({\theta _{\boldsymbol{V}}},{\theta _{\boldsymbol{T}}},{\theta _{{S_{\boldsymbol{V}}}}}) = \max \left(0,{\left\| {S_{\boldsymbol{V}}' - {S_{\boldsymbol{T}}}} \right\|_2} - {\left\| {S_{\boldsymbol{V}}' - {S_{\boldsymbol{V}}}} \right\|_2}\right) , (5) {L_{{\rm{con}},{\boldsymbol{T}}}}({\theta _{\boldsymbol{T}}},{\theta _{\boldsymbol{V}}},{\theta _{{S_{\boldsymbol{T}}}}}) = \max \left(0,{\left\| {S_{\boldsymbol{T}}' - {S_{\boldsymbol{V}}}} \right\|_2} - {\left\| {S_{\boldsymbol{T}}' - {S_{\boldsymbol{T}}}} \right\|_2}\right) . (6) 其中{L_{{\rm{con}},{\boldsymbol{V}}}}表示图像媒体数据的约束损失,{L_{{\rm{con}},{\boldsymbol{T}}}}表示文本媒体数据的约束损失.
因此,整体语义内的媒体判别损失可以建模为图像媒体数据的约束损失{L_{{\rm{con}},{\boldsymbol{V}}}}({\theta _{\boldsymbol{V}}},{\theta _{\boldsymbol{T}}},{\theta _{{S_{\boldsymbol{V}}}}})与文本媒体数据的约束损失{L_{{\rm{con}},{\boldsymbol{T}}}}({\theta _{\boldsymbol{T}}},{\theta _{\boldsymbol{V}}},{\theta _{{S_{\boldsymbol{T}}}}})的结合:
{L_{{\rm{con}}}}({\theta _{\boldsymbol{V}}},{\theta _{\boldsymbol{T}}},{\theta _{{S_{\boldsymbol{V}}}}},{\theta _{{S_{\boldsymbol{T}}}}}) = {L_{{\rm{con}},{\boldsymbol{V}}}}({\theta _{\boldsymbol{V}}},{\theta _{\boldsymbol{T}}},{\theta _{{S_{\boldsymbol{V}}}}}) + {L_{{\rm{con}},{\boldsymbol{T}}}}({\theta _{\boldsymbol{T}}},{\theta _{\boldsymbol{V}}},{\theta _{{S_{\boldsymbol{T}}}}}). (7) 3.1.4 特征映射网络损失
整个特征映射网络的映射性损失由媒体内的判别损失{L_{{\rm{imd}}}} 、媒体间的一致性损失{L_{{\rm{imi}}}} 、语义内的判别损失{L_{{\rm{com}}}} 共同组成,记为{L_{{\rm{emb}}}}:
{L_{{\rm{emb}}}}({\theta _{\boldsymbol{V}}},{\theta _{\boldsymbol{T}}},{\theta _{{S_{\boldsymbol{V}}}}},{\theta _{{S_{\boldsymbol{T}}}}},{\theta _{{\rm{imd}}}}) = \alpha · {L_{{\rm{imi}}}} + \beta · {L_{{\rm{con}}}} + {L_{{\rm{imd}}}}, (8) 其中\alpha 和\beta 为可调节参数,用以控制{L_{{\rm{imi}}}}和{L_{{\rm{con}}}}这2类损失在整个特征映射网络损失中的参与度.
3.2 媒体判别网络
媒体判别网络扮演着GAN[27]中“判别器”的角色,用来判断映射到隐语义空间后的数据的原始媒体. 令经过图像映射函数的数据标签为0,经过文本映射函数的数据标签为1.本文使用一个参数为{\theta _{\rm{dis}}}的3层全连接网络作为判别网络,充当特征映射网络的对手. 其目标是最小化媒体分类损失,也称为对抗性损失{L_{{\rm{adv}}}},定义为
{L_{{\rm{adv}}}}({\theta _{\rm{dis}}}) = - \frac{1}{n}\sum\limits_{i = 1}^n {(\ln D({{\boldsymbol{v}}_i};{\theta _{\rm{dis}}}) + \ln (1 - D({{\boldsymbol{t}}_i};{\theta _{\rm{dis}}})))} , (9) 其中{L_{{\rm{adv}}}}表示媒体判别网络中每个样本{m_i}的交叉熵损失,D( · ;{\theta _{\rm{dis}}})表示样本中每个数据(图像或文本)所得到的媒体概率分布.
3.3 对抗学习
对抗学习的目的旨在通过同时最小化式(8)的映射性损失和式(9)的对抗性损失,来学习得到最优的特征表示网络参数,定义如下所示:
\begin{aligned} &({\theta _{\boldsymbol{V}}},{\theta _{\boldsymbol{T}}},{\theta _{{S_{\boldsymbol{V}}}}},{\theta _{{S_{\boldsymbol{T}}}}},{\theta _{{\rm{imd}}}}) =\\ & \mathop {\arg \min }\limits_{{\theta _{\boldsymbol{V}}},{\theta _{\boldsymbol{T}}},{\theta _{{S_{\boldsymbol{V}}}}},{\theta _{{S_{\boldsymbol{T}}}}},{\theta _{{\rm{imd}}}}} ({L_{{\rm{emb}}}}({\theta _{\boldsymbol{V}}},{\theta _{\boldsymbol{T}}},{\theta _{{S_{\boldsymbol{V}}}}},{\theta _{{S_{\boldsymbol{T}}}}},{\theta _{{\rm{imd}}}}) - {L_{{\rm{adv}}}}({\theta _{\rm{dis}}})) \end{aligned} , (10) {\theta _{\rm{dis}}} = \mathop {\arg \max }\limits_{{\theta _{\rm{dis}}}} ({L_{{\rm{emb}}}}({\theta _{\boldsymbol{V}}},{\theta _{\boldsymbol{T}}},{\theta _{{S_{\boldsymbol{V}}}}},{\theta _{{S_{\boldsymbol{T}}}}},{\theta _{{\rm{imd}}}}) - {L_{{\rm{adv}}}}({\theta _{\rm{dis}}})) . (11) 具体的对抗学习训练过程如算法1所示.
算法1. SMCR的对抗训练过程.
输入:图像特征矩阵{\boldsymbol{V }}= ({{\boldsymbol{v}}_1},{{\boldsymbol{v}}_2}, … ,{{\boldsymbol{v}}_N}), 文本特征矩阵{\boldsymbol{T}} = ({{\boldsymbol{t}}_1},{{\boldsymbol{t}}_2}, … ,{{\boldsymbol{t}}_N}), 真值语义标签矩阵{\boldsymbol{L}} = ({{\boldsymbol{l}}_1}, {{\boldsymbol{l}}_2}, … , {{\boldsymbol{l}}_N}), 迭代次数k, 学习率\mu , 每个批次的数据量m, 损失参数\lambda ;
输出:参数 {\theta _{\boldsymbol{V}}} , {\theta _{\boldsymbol{T}}} , {\theta _{{S_{\boldsymbol{V}}}}} , {\theta _{{S_{\boldsymbol{T}}}}} .
①随机初始化模型参数;
②while未收敛do
③ for iter =1 to k do
④ 通过随机梯度下降更新参数{\theta _{\boldsymbol{V}}},{\theta _{\boldsymbol{T}}},{\theta _{{S_{\boldsymbol{V}}}}},{\theta _{{S_{\boldsymbol{T}}}}}, {\theta _{{\rm{imd}}}};
⑤ {\theta _{\boldsymbol{V}}} \leftarrow {\theta _{\boldsymbol{V}}} - \mu \cdot {\nabla _{{\theta _{\boldsymbol{V}}}}}\dfrac{1}{m}({L_{{\rm{emb}}}} - {L_{{\rm{adv}}}});
⑥ {\theta _{\boldsymbol{T}}} \leftarrow {\theta _{\boldsymbol{T}}} - \mu \cdot {\nabla _{{\theta _{\boldsymbol{T}}}}}\dfrac{1}{m}({L_{{\rm{emb}}}} - {L_{{\rm{adv}}}});
⑦ {\theta _{{S_{\boldsymbol{V}}}}} \leftarrow {\theta _{{S_{\boldsymbol{V}}}}} - \mu \cdot {\nabla _{{\theta _{{S_{\boldsymbol{V}}}}}}}\dfrac{1}{m}({L_{{\rm{emb}}}} - {L_{{\rm{adv}}}});
⑧ {\theta _{{S_{\boldsymbol{T}}}}} \leftarrow {\theta _{{S_{\boldsymbol{T}}}}} - \mu \cdot {\nabla _{{\theta _{{S_{\boldsymbol{T}}}}}}}\dfrac{1}{m}({L_{{\rm{emb}}}} - {L_{{\rm{adv}}}});
⑨ {\theta _{{\rm{imd}}}} \leftarrow {\theta _{{\rm{imd}}}} - \mu \cdot {\nabla _{{\theta _{{\rm{imd}}}}}}\dfrac{1}{m}({L_{{\rm{emb}}}} - {L_{{\rm{adv}}}});
⑩ end for
⑪end while
⑫通过随机梯度上升更新参数{\theta _{\rm{dis}}};
⑬{\theta _{\rm{dis}}} \leftarrow {\theta _{\rm{dis}}} + \mu \cdot \lambda \cdot {\nabla _{{\theta _{\rm{dis}}}}}\dfrac{1}{m}({L_{{\rm{emb}}}} - {L_{{\rm{adv}}}}).
4. 实验设置
本文分别阐述对实验部分至关重要的研究问题、数据集、对比算法、评价指标等4个方面.
4.1 研究问题
本文通过3个研究问题来引导实验的设置.
研究问题1. 面向科技资讯的基于语义对抗和媒体对抗的跨媒体检索方法SMCR的表现能否优于前沿的跨媒体检索算法.
研究问题2. SMCR方法的主要组成部分对于跨媒体检索是否存在贡献.
研究问题3. SMCR方法是否对参数敏感.
4.2 数据集
为了回答上述3个研究问题,使用爬取自科技资讯网站SciTechDaily[37]的数据集进行实验. 数据集包括5217个图像-文本对,将其中的4173对数据作为训练集,1044对数据作为测试集. 为了验证本文模型的通用性,同时使用Wikipedia[38]数据集进行实验. Wikipedia数据集包括2866个图像-文本对,将其中的2292对数据作为训练集,574对数据作为测试集. 这2个数据集的详细信息如表1所示.
表 1 实验使用的2个数据集的属性Table 1. Attributes of Two Datasets Used for the Experiments数据集 训练样本数/测试样本数 标签数 图像特征 文本特征 SciTechDaily 4173/1044 8 4096d VGG 6500d BoW Wikipedia 2292/574 10 4096d VGG 5000d BoW 4.3 对比算法
本文将SMCR与相关的基准算法和前沿算法进行比较,对比算法如下.
1)典型关联分析(canonical correlation analysis,CCA). 该模型[12]为不同的媒体类型的数据学习一个公共子空间,使2组异构数据之间的关联最大化.
2)基于耦合特征选择和子空间学习的联合学习(joint feature selection and subspace learning,JFSSL). 该模型[13]学习投影矩阵将多媒体数据映射到一个公共子空间,并同时从不同的特征空间中选择相关的和有区别的特征.
3)跨媒体多重深度网络(cross-media multiple deep network,CMDN). 该模型[18]通过分层学习来利用复杂的跨媒体相关性. 在第1阶段,联合对媒体内和媒体信息进行建模;在第2阶段,分层组合媒体间表示和媒体内表示来进一步学习丰富的跨媒体相关性.
4)基于对抗的跨媒体检索(adversarial cross-modal retrieval,ACMR). 该模型[24]基于对抗性学习寻求有效的公共子空间. 对特征投影器施加3重约束,以最小化来自具有相同语义标签、不同媒体的所有样本表示之间的差距,同时最大化语义不同的图像和文本之间的距离.
5)深度监督跨媒体检索(deep supervised cross-modal retrieval,DSCMR). 该模型[25]同样基于对抗性学习的思想,将标签空间和公共表示空间中的判别损失最小化,同时最小化媒体不变性损失,并使用权重共享策略来消除公共表示空间中多媒体数据的跨媒体差异.
6)基于对抗学习和语义相似度的社交网络跨媒体搜索(SSACR). 该模型[26]同样基于对抗性学习的思想,将映射到同一语义空间的不同媒体数据的特征向量进行了相似度计算, 并与原本的语义特征向量之间的相似度进行比较,以消除同一语义下不同媒体数据的差异.
4.4 评价指标
本文采用跨媒体检索[39-40]中经典的评价指标——平均精度均值(mean average precision,mAP),在文本检索图像txt2img和图像检索文本img2txt 这2个任务上,分别对SMCR和所有对比算法进行评价. 计算mAP,首先需计算R个检索出的文档的平均精度AP = \dfrac{1}{T}\displaystyle\sum_{r = 1}^R {P(r)\delta (r)}. 其中T是检索出的文档中的相关文档数量,P(r)表示前r个检索出的文档的精度,如果第r个检索出的文档是相关的,则\delta (r) = 1,否则\delta (r) = 0. 然后通过对查询集中所有查询的AP值进行平均来计算mAP. mAP值越大,说明跨媒体检索结果越精准.
5. 实验结果与分析
本节对所有实验结果进行分析,来回答4.1节提出的研究问题.
5.1 SMCR算法的有效性
为了回答研究问题1,将SMCR和6个前沿算法分别在SciTechDaily,Wikipedia这2个数据集上进行对比. 对比算法为:1)基于统计关联分析的方法CCA[12],JFSSL[13];2)基于深度学习的方法CMDN[18],ACMR[24],DSCMR[25],SSACR[26].
表2展示了本文在文本检索图像txt2img和图像检索文本img2txt这2个任务上,对前5个、前25个、前50个的检索结果计算mAP值(mAP@5,mAP@25,mAP@50)和2个检索任务的mAP均值的结果.
表 2 在SciTechDaily和Wikipedia数据集上的跨媒体检索性能比较Table 2. Comparison of Cross-Media Retrieval Performance on SciTechDaily and Wikipedia Datasets数据集 算法 mAP@5 mAP@25 mAP@50 txt2img img2txt 均值 txt2img img2txt 均值 txt2img img2txt 均值 SciTechDaily CCA 0.2337 0.1806 0.2071 0.2328 0.1761 0.2044 0.2225 0.1789 0.2007 JFSSL 0.3984 0.2852 0.3418 0.3817 0.2777 0.3297 0.3699 0.2647 0.3173 CMDN 0.4483 0.3514 0.3998 0.4299 0.3443 0.3871 0.4206 0.3229 0.3717 ACMR 0.5131 0.4382 0.4756 0.4943 0.4471 0.4707 0.4966 0.4259 0.4612 DSCMR 0.5042 0.4577 0.4809 0.4812 0.4646 0.4729 0.4810 0.4467 0.4638 SSACR 0.5091 0.4572 0.4831 0.5049 0.4487 0.4768 0.5072 0.4355 0.4713 SMCR(本文) 0.5270 0.4790 0.5030 0.5291 0.4727 0.5009 0.5191 0.4426 0.4808 Wikipedia CCA 0.2639 0.2154 0.2396 0.2883 0.2255 0.2569 0.2575 0.2152 0.2363 JFSSL 0.4432 0.3481 0.3956 0.4266 0.3528 0.3897 0.4152 0.3479 0.3815 CMDN 0.5265 0.4194 0.4729 0.5046 0.4171 0.4608 0.4874 0.3938 0.4406 ACMR 0.6372 0.4920 0.5646 0.6251 0.4937 0.5594 0.5887 0.4824 0.5355 DSCMR 0.6413 0.4963 0.5688 0.6514 0.5082 0.5798 0.6452 0.4973 0.5712 SSACR 0.6642 0.4927 0.5784 0.6608 0.5089 0.5848 0.6416 0.4956 0.5686 SMCR(本文) 0.7014 0.5059 0.6036 0.6714 0.5003 0.5858 0.6503 0.4959 0.5731 注:黑体数值表示最优值. 从表2中,我们有以下发现:
1)SMCR的表现优于所有前沿算法,包括基于统计关联分析的方法和基于深度学习的方法. 其中SMCR方法在前5个、前25个、前50个的检索结果上的mAP均值在2个数据集上均优于目前最前沿的SSACR算法. 这表明,虽然SSACR同样建模了媒体内语义损失和媒体间语义损失,SMCR引入语义内的媒体约束模块,通过更加逼真地映射出难以区分媒体的特征表示,有助于进一步提升跨媒体检索性能.
2)SMCR和JFSSL,CMDN,ACMR,DSCMR,SSACR等同时建模媒体内相似性和媒体间相似性的模型,效果优于基于图像-文本对建模媒体间相似性的CCA,表明同时考虑媒体内相似性和媒体间相似性能够提高跨媒体检索精度.
3)SMCR和ACMR,DSCMR,SSACR的跨媒体检索性能优于在多任务学习框架中同样建模了媒体间不变性和媒体内判别性的CMDN,表明对抗学习有助于进一步提升媒体间不变性和媒体内判别性的建模.
4)SMCR通过分别建模相同语义、不同媒体数据在映射前和映射后的语义相似性,表现优于仅建模相同语义、不同媒体间数据在映射后的语义相似性的ACMR和DSCMR. 这表示建模不同媒体的数据在映射前后的语义不变性有助于提高跨媒体检索精度.
5)SMCR和所有前沿算法在SciTechDaily,Wikipedia这2个数据集上的表现一致,表明SMCR算法不仅局限于跨媒体科技资讯的检索,而且在通用的跨媒体检索任务中同样具备良好效果.
5.2 SMCR方法主要组成部分的贡献
为了回答研究问题2,我们将SMCR与去掉媒体间语义损失{L_{{\rm{imi}}}}的SMCR、去掉语义内媒体损失{L_{{\rm{con}}}}的SMCR在SciTechDaily和Wikipedia这2个数据集上进行对比. 由于采用标签分类建模的媒体内语义损失{L_{{\rm{imd}}}}并非本文创新,因此不对去掉{L_{{\rm{imd}}}}的SMCR进行对比,结果如表3、表4所示. 从表3、表4中有2点发现:
表 3 SMCR与其变种在SciTechDaily数据集上的表现Table 3. Performance of SMCR and Its Variants in SciTechDaily Dataset本文方法 mAP txt2img img2txt 均值 SMCR
(去掉{L_{{\rm{imi}}} })mAP@5 0.5196 0.4627 0.4911 mAP@25 0.5187 0.4525 0.4856 mAP@50 0.5024 0.4408 0.4716 SMCR
(去掉{L_{{\rm{con}}} })mAP@5 0.5155 0.4513 0.4834 mAP@25 0.5073 0.4474 0.4773 mAP@50 0.4972 0.4386 0.4679 SMCR mAP@5 0.5270 0.4790 0.5030 mAP@25 0.5291 0.4727 0.5009 mAP@50 0.5191 0.4426 0.4808 表 4 SMCR与其变体在Wikipedia数据集上的表现Table 4. Performance of SMCR and Its Variants in Wikipedia Dataset本文算法 mAP txt2img img2txt 均值 SMCR
(去掉{L_{{\rm{imi}}} })mAP@5 0.6919 0.4983 0.5951 mAP@25 0.6622 0.4937 0.5779 mAP@50 0.6418 0.4901 0.5659 SMCR
(去掉{L_{{\rm{con}}} })mAP@5 0.6806 0.5038 0.5922 mAP@25 0.6596 0.4980 0.5788 mAP@50 0.6416 0.4938 0.5677 SMCR mAP@5 0.7014 0.5059 0.6036 mAP@25 0.6714 0.5003 0.5858 mAP@50 0.6503 0.4959 0.5731 1)去掉媒体间语义损失{L_{{\rm{imi}}}}的SMCR和去掉语义内媒体损失{L_{{\rm{con}}}}的SMCR,相比SMCR,跨媒体检索mAP值均有所下降. 这表明在特征映射网络中同时优化媒体间语义损失{L_{{\rm{imi}}}}和语义内媒体损失{L_{{\rm{con}}}}相比单独优化其中一个更有助于提升跨媒体检索表现.
2)SMCR与其变体在SciTechDaily,Wikipedia这2个数据集上的跨媒体检索表现一致,再次表明SMCR方法并不局限于跨媒体科技资讯检索,而在通用的跨媒体检索任务上同样有效.
5.3 SMCR方法的参数敏感性
本节回答研究问题3. 式(8)中的特征映射网络的映射性损失{L_{{\rm{emb}}}}有\alpha 和\beta 这2个参数,分别控制媒体间语义损失{L_{{\rm{imi}}}}和语义内媒体损失{L_{{\rm{con}}}}在整体映射性损失{L_{{\rm{emb}}}}中的参与度. 本节在Wikipedia数据集上改变\alpha 和\beta 的取值,以测试SMCR算法的参数敏感性. 将\alpha 和\beta 分别取值0.1,1,10,100,特别而言,当\alpha = 0时SMCR退化为去掉媒体间语义损失{L_{{\rm{imi}}}}的SMCR;当\beta = 0时SMCR退化为去掉语义内媒体损失{L_{{\rm{con}}}}的SMCR. 因此\alpha 和\beta 的取值不为0. 固定一个参数(如\alpha )的前提下,改变另一个参数(如\beta )进行实验,并采用mAP@50分别评估文本检索图像效果、图像检索文本效果、平均检索效果,结果如图2所示.
从图2中可见,当\alpha 取值为0.1, 1, 10和\beta 取值为0.1, 1, 10, 100时,SMCR表现较好. 这表明SMCR对参数不敏感,即泛化能力较好. 特别地,在文本检索图像任务上,当\alpha = 0.1且\beta = 0.1时,SMCR表现最优;在图像检索文本任务上,当\alpha = 1且\beta = - 1时,SMCR取得最优检索效果;在平均检索效果上,当\alpha = - 1且\beta = - 1时,SMCR表现最好.
6. 结 论
本文提出一种面向科技资讯的基于语义对抗和媒体对抗的跨媒体检索方法(SMCR),能够同时学习跨媒体检索中的媒体内判别性、媒体间一致性、语义内判别性表示. SMCR基于对抗学习方法,在极小化极大化游戏中涉及2个过程:生成具有媒体内判别性、媒体间一致性、语义间判别性表示的特征映射网络和试图辨别给定数据原始媒体的媒体判别网络. 本文引入媒体间一致性损失,以确保映射前后的媒体间数据保留语义一致性;此外,引入语义内媒体判别性损失,以确保映射后的数据在语义上接近自身,媒体上远离自身来增强特征映射网络混淆媒体判别网络的能力. 在2个跨媒体数据集上进行的综合实验结果证明了SMCR方法的有效性,且在跨媒体检索上的表现优于最前沿的方法.
作者贡献声明:李昂负责论文初稿撰写及修改、实验设计验证与核实;杜军平负责论文审阅与修订、研究课题监管与指导;寇菲菲负责指导实验方法设计;薛哲负责指导论文选题;徐欣和许明英负责实际调查研究;姜阳负责数据分析与管理.
-
表 1 最大利润与覆盖率的对比
Table 1 Comparison of Maximum Profit and Coverage Ratio
算法 最大利润 覆盖率 贪婪算法 298 0.41 蚁群算法 352 0.52 基于DDQN算法 502 0.72 基于PPO算法(本文) 512 0.76 -
[1] Ganti R K, Fan Ye, Hui Lei. Mobile crowdsensing: Current state and future challenges[J]. IEEE Communications Magazine, 2011, 49(11): 32−39 doi: 10.1109/MCOM.2011.6069707
[2] Guo Bin, Yu Zhiwen, Zhou Xingshe, et al. From participatory sensing to mobile crowd sensing[C]//Proc of the 12th IEEE Int Conf on Pervasive Computing and Communication Workshops (PERCOM WORKSHOPS). Piscataway, NJ: IEEE, 2014: 593−598
[3] Lu Anqi, Zhu Jinghua. Worker recruitment with cost and time constraints in mobile crowd sensing[J]. Future Generation Computer Systems, 2020, 112(15): 819−831
[4] Li Doudou, Zhu Jinghua, Cui Yanchang. Prediction-based task allocation in mobile crowdsensing[C]//Proc of the 15th Int Conf on Mobile Ad-Hoc and Sensor Networks (MSN). Piscataway, NJ: IEEE, 2019: 89−94
[5] Wang Zhen, Zhu Jinghua, Li Doudou. Prediction based reverse auction incentive mechanism for mobile crowdsensing system[C]//Proc of the 13th Int Conf on Combinatorial Optimization and Applications. Berlin: Springer, 2019: 541−552
[6] Mnih V, Kavukcuoglu K, Silver D, et al. Human-level control through deep reinforcement learning[J]. Nature, 2015, 518(7540): 529−533 doi: 10.1038/nature14236
[7] Kungurtsev V , Egan M , Chatterjee B , et al. Asynchronous optimization methods for efficient training of deep neural networks with guarantees[C]//Proc of the 35th AAAI Conf on Artificial Intelligence. Palo Alto, CA : AAAI, 2021: 8209−8216
[8] Silver D, Lever G, Heess N, et al. Deterministic policy gradient algorithms[C]//Proc of the 13th Int Conf on Machine Learning. New York: PMLR, 2014: 387−395
[9] Schulman J, Levine S, Abbeel P, et al. Trust region policy optimization[C]//Proc of the 14th Int Conf on Machine Learning. New York: PMLR, 2015: 1889−1897
[10] 刘全,翟建伟,章宗长,等. 深度强化学习综述简[J]. 计算机学报,2018,41(1):1−27 doi: 10.11897/SP.J.1016.2019.00001 Liu Quan, Zhai Jianwei, Zhang Zongzhang, et al. A survey on deep reinforcement learning[J]. Chinese Journal of Computers, 2018, 41(1): 1−27 (in Chinese) doi: 10.11897/SP.J.1016.2019.00001
[11] Dwork C. Differential privacy [C]//Proc of the 33rd Int Colloquium on Automata, Languages, and Programming. Berlin: Springer, 2006: 1−12
[12] Cheung Manhon, Hou Fen, Huang Jianwei, et al. Distributed time-sensitive task selection in mobile crowdsensing[J]. IEEE Transactions on Mobile Computing, 2020, 20(6): 2172−2185
[13] Li W, Jia Bin, Xu Haotian, et al. A multi-task scheduling mechanism based on ACO for maximizing workers’ benefits in mobile crowdsensing service markets with the Internet of things[J]. IEEE Access, 2019, 7: 41463−41469
[14] Guo Bin, Liu Yan, Wang Leye, et al. Task allocation in spatial crowdsourcing: Current state and future directions[J]. IEEE Internet of Things Journal, 2018, 5(3): 1749−1764 doi: 10.1109/JIOT.2018.2815982
[15] Zhou Zhenyu, Liao Haijun, Gu Bo, et al. Robust mobile crowd sensing: When deep learning meets edge computing[J]. IEEE Network, 2018, 32(4): 54−60 doi: 10.1109/MNET.2018.1700442
[16] Mnih V, Kavukcuoglu K, Silver D, et al. Playing atari with deep reinforcement learning[J]. Nature, 2015, 518(6254): 539−543
[17] Kim I, Morrison J R. Learning based framework for joint task allocation and system design in stochastic multi-UAV systems[C]//Proc of the 15th Int Conf on Unmanned Aircraft Systems (ICUAS). Piscataway, NJ: IEEE, 2018: 324−334
[18] Tao Xi, Song Wei. Task allocation for mobile crowdsensing with deep reinforcement learning[C/OL]//Proc of the 18th IEEE Wireless Communications and Networking Conf (WCNC). Piscataway, NJ: IEEE, 2020[2022-08-21].https://ieeexplore.ieee.org/abstract/document/9120489
[19] Patel T, Wagenhäuser A, Eibel C, et al. What does power consumption behavior of hpc jobs reveal?: Demystifying, quantifying, and predicting power consumption characteristics[C]//Proc of the 34th IEEE Int Parallel and Distributed Processing Symp (IPDPS). Piscataway, NJ: IEEE, 2020: 799−809
[20] Raskhodnikova S, Smith A, Lee H K, et al. What can we learn privately[C]//Proc of the 54th Annual Symp on Foundations of Computer Science. Piscataway, NJ: IEEE, 2008: 531−540
[21] Chen Rui, Fung Benjiamin C M, Desai B C, et al. Differentially private transit data publication: A case study on the montreal transportation system[C]//Proc of the 18th ACM SIGKDD Int Conf on Knowledge Discovery and Datamining. New York: ACM, 2012: 213−221
[22] Wang Jie, Wang Feng, Li Hongtao. Differential privacy location protection scheme based on Hilbert curve[J]. Security and Communication Networks, 2021, 9(7): 366−417
[23] Golden B L, Levy L, Vohra R. The orienteering problem[J]. Naval Research Logistics, 1987, 34(3): 307−318 doi: 10.1002/1520-6750(198706)34:3<307::AID-NAV3220340302>3.0.CO;2-D
[24] Mnih V, Badia A P, Mirza M, et al. Asynchronous methods for deep reinforcement learning[C]//Proc of the 33rd Int Conf on Machine Learning. New York: PMLR, 2016: 1928−1937
-
期刊类型引用(1)
1. 李君,徐春婕,张文宗,王振,李逸. 管控平台综合监控告警系统设计与实现. 铁路计算机应用. 2024(09): 44-49 . 百度学术
其他类型引用(0)