Processing math: 2%
  • 中国精品科技期刊
  • CCF推荐A类中文期刊
  • 计算领域高质量科技期刊T1类
高级检索

一种联合时延和能耗的依赖性任务卸载方法

张俊娜, 鲍想, 陈家伟, 赵晓焱, 袁培燕, 王尚广

张俊娜, 鲍想, 陈家伟, 赵晓焱, 袁培燕, 王尚广. 一种联合时延和能耗的依赖性任务卸载方法[J]. 计算机研究与发展, 2023, 60(12): 2770-2782. DOI: 10.7544/issn1000-1239.202220779
引用本文: 张俊娜, 鲍想, 陈家伟, 赵晓焱, 袁培燕, 王尚广. 一种联合时延和能耗的依赖性任务卸载方法[J]. 计算机研究与发展, 2023, 60(12): 2770-2782. DOI: 10.7544/issn1000-1239.202220779
Zhang Junna, Bao Xiang, Chen Jiawei, Zhao Xiaoyan, Yuan Peiyan, Wang Shangguang. A Dependent Task Offloading Method for Joint Time Delay and Energy Consumption[J]. Journal of Computer Research and Development, 2023, 60(12): 2770-2782. DOI: 10.7544/issn1000-1239.202220779
Citation: Zhang Junna, Bao Xiang, Chen Jiawei, Zhao Xiaoyan, Yuan Peiyan, Wang Shangguang. A Dependent Task Offloading Method for Joint Time Delay and Energy Consumption[J]. Journal of Computer Research and Development, 2023, 60(12): 2770-2782. DOI: 10.7544/issn1000-1239.202220779
张俊娜, 鲍想, 陈家伟, 赵晓焱, 袁培燕, 王尚广. 一种联合时延和能耗的依赖性任务卸载方法[J]. 计算机研究与发展, 2023, 60(12): 2770-2782. CSTR: 32373.14.issn1000-1239.202220779
引用本文: 张俊娜, 鲍想, 陈家伟, 赵晓焱, 袁培燕, 王尚广. 一种联合时延和能耗的依赖性任务卸载方法[J]. 计算机研究与发展, 2023, 60(12): 2770-2782. CSTR: 32373.14.issn1000-1239.202220779
Zhang Junna, Bao Xiang, Chen Jiawei, Zhao Xiaoyan, Yuan Peiyan, Wang Shangguang. A Dependent Task Offloading Method for Joint Time Delay and Energy Consumption[J]. Journal of Computer Research and Development, 2023, 60(12): 2770-2782. CSTR: 32373.14.issn1000-1239.202220779
Citation: Zhang Junna, Bao Xiang, Chen Jiawei, Zhao Xiaoyan, Yuan Peiyan, Wang Shangguang. A Dependent Task Offloading Method for Joint Time Delay and Energy Consumption[J]. Journal of Computer Research and Development, 2023, 60(12): 2770-2782. CSTR: 32373.14.issn1000-1239.202220779

一种联合时延和能耗的依赖性任务卸载方法

基金项目: 国家自然科学基金项目(61902112,62072159);河南省科技攻关项目(222102210011)
详细信息
    作者简介:

    张俊娜: 1979年生. 博士,副教授,硕士生导师. CCF会员. 主要研究方向为边缘计算、服务计算

    鲍想: 1997年生. 硕士研究生. CCF学生会员. 主要研究方向为边缘计算、服务计算

    陈家伟: 1998年生. 硕士研究生. CCF学生会员. 主要研究方向为边缘计算、服务计算

    赵晓焱: 1981年生. 博士,副教授,硕士生导师. CCF会员. 主要研究方向为边缘计算、D2D通信

    袁培燕: 1978年生. 博士,教授,硕士生导师. CCF会员. 主要研究方向为边缘计算、群智感知

    王尚广: 1982年生. 博士,教授,博士生导师. CCF杰出会员. 主要研究方向为服务计算、移动云计算、车联网与网络安全

    通讯作者:

    赵晓焱(121095@htu.edu.cn

  • 中图分类号: TP393

A Dependent Task Offloading Method for Joint Time Delay and Energy Consumption

Funds: This work was supported by the National Natural Science Foundation of China (61902112, 62072159) and the Science and Technology Development Foundation of Henan Province (222102210011).
More Information
    Author Bio:

    Zhang Junna: born in 1979. PhD, associate professor, master supervisor. Member of CCF. Her main research interests include edge computing and service computing

    Bao Xiang: born in 1997. Master candidate. Student member of CCF. His main research interests include edge computing and service computing

    Chen Jiawei: born in 1998. Master candidate. Student member of CCF. His main research interests include edge computing and service computing

    Zhao Xiaoyan: born in 1981. PhD, associate professor, master supervisor. Member of CCF. Her main research interests include edge computing and D2D communication

    Yuan Peiyan: born in 1978. PhD, professor, master supervisor. Member of CCF. His main research interests include edge computing and crowd sensing

    Wang Shangguang: born in 1982. PhD, professor, PhD supervisor. Distinguished member of CCF. His main research interests include service computing, mobile cloud computing, and Internet of vehicles and network security

  • 摘要:

    边缘计算通过在靠近用户的网络边缘侧部署计算和存储资源,使用户可将高延迟、高耗能应用程序卸载到网络边缘侧执行,从而降低应用延迟和本地能耗. 已有的卸载研究通常假设卸载的任务之间相互独立,且边缘服务器缓存有执行任务所需的所有服务. 然而,在真实场景中,任务之间往往存在依赖关系,且边缘服务器因其有限的存储资源只能缓存有限的服务. 为此,提出一种在边缘服务器计算资源和服务缓存有限的约束下,权衡时延和能耗(即成本)的依赖性任务卸载方法. 首先,松弛研究问题中的约束将其转换为凸优化问题;采用凸优化工具求最优解,并用解计算卸载任务的优先级. 然后,按照优先级将任务卸载到成本最小的边缘服务器,若多个依赖任务卸载到不同的边缘服务器,为了使总成本最小,则采用改进粒子群算法求解边缘服务器的最佳传输功率. 最后,为了验证所提方法的有效性,基于真实数据集进行了充分的实验. 实验结果表明,所提方法与其他方法相比能够降低总成本8%~23%.

    Abstract:

    Edge computing deploys computing and storage resources on the edge of the network closed to users, so that users can offload high-latency and energy-intensive applications to the edge of the network for execution to reduce application latency and local energy consumption. Existing offloading research usually assumes that the offloaded tasks are independent of each other, and the edge server caches all the services required for task execution. However, in real scenarios, there are often dependent between tasks, and edge servers can only cache limited services due to their limited storage resources. To this end, we propose a dependent task offloading method that balances latency and energy consumption (i.e., cost) under the constraints of limited computing resources and service caches on edge servers. First, the constraints in the research problem are relaxed to be transformed into a convex optimization problem. A convex optimization tool is used to find the optimal solution, which is used to calculate the priority of offloading tasks. Then, the tasks are offloaded to the edge server with the least cost according to the priority. If multiple dependent tasks are offloaded to different edge servers, an improved particle swarm optimization is used to solve the optimal transmission power of edge servers to minimize the total cost. Finally, sufficient experiments are performed based on real datasets to verify the effectiveness of the proposed method. The experimental results show that the proposed method can reduce the total cost by approximately 8% to 23% compared with other methods.

  • 随着互联网的发展,社交媒体平台成为人们发表言论和观点的主要阵地,高效地识别用户对重要组织、重要人物、商品等实体及其方面 1的情感对平台治理用户的不当言论、建模用户偏好以实现精准的个性化推荐有重要的实用意义. 同时也有助于监控消费者行为、评估产品质量、监控舆情、调研市场等.

    不同于句子级情感分析任务为整个句子预测情感,方面术语提取和方面级情感分类(aspect-term extraction and aspect-level sentiment classification, AESC)任务的目标是抽取句子中的方面-情感对. 方面术语提取(aspect-term extraction, AE)提取句子中包含的方面术语,方面级情感分类(aspect-level sentiment classification, ALSC)预测用户对给定方面的情感. 比如来自Twitter的一条评论:“I love animals , so nice to see them getting along ! Here are our dogs , Greek and Salem , laying together”,提取出的方面-情感对为〈“Greek”,正面〉〈“Salem”,正面〉,即句子中包含方面“Greek”和“Salem”,表述者对它们的情感都是正面的.

    在文本领域中,已有研究[1-3]实现了方面-情感对提取方法,并应用于商品评论数据的情感分析. 然而在Twitter,Instagram等社交媒体平台上,人们习惯发表短小且口语化的文字并配以图片,相关研究指出,文本单模态的模型在此类用户数据上表现并不好[4-6]. 考虑图片非仅仅依靠文本来分析用户发表的观点是时代的趋势,因此在多模态领域实现方面术语提取和方面级情感分类将具有一定的实用价值和现实意义.

    在多模态领域,Zhang等人[7]和Yu等人[8]分别研究了方面术语抽取和方面级情感分类. 通过实体识别技术提取句子中包含的方面术语,接着将提取的方面术语和句子输入到方面级情感分类模型进行情感预测,可通过这种流水线方式实现方面-情感对的提取. 然而,目前的这种方法存在不足之处:首先,使用2个完全独立的模型分步实现方面-情感对的提取,使得建模特征的语义深度不同且不关联,忽略了2个任务之间潜在的语义关联,当句子中包含多个方面时,情感分类模型可能会混淆它们之间的上下文信息而造成预测失误;其次,方面术语提取模型一次提取句子中的多个方面术语,而情感分析模型一次只能预测一个方面的情感,前者的吞吐量大于后者,且情感分析必须在方面术语提取完成后进行,降低了方面-情感对的抽取效率.

    针对以上问题,本文提出了一个同时进行方面术语提取和方面级情感分类的统一框架UMAS. 该统一框架包含3个模块:共享特征模块、方面术语提取模块、情感分类模块. 首先,该统一框架使用共享特征的方式表示方面术语提取和情感分类2个子任务的底层文本和图像特征,在学习的过程中建立2个子任务之间的语义联系. 相比于之前的方面术语提取模型和方面级情感分类模型使用不同的网络编码文本和图像的特征,本文所提出的特征共享的方法简化了模型. 其次,采用序列标注的方式,同时输出句子中包含的多个方面和对应的情感,方面术语提取模块和情感分类模块可并行执行,大大提升了方面-情感对提取的效率.

    此外,既往多模态方面术语提取方法[7,9-10]未能充分利用文本的语法信息,而方面级情感分析方法[8,11]由于缺乏观点词的标注而未能通过观点信息更好地判断情感倾向. 为提升2个子任务的性能,本文使用词性标注工具spaCy[11]获取单词的词性,对2个子任务做如下改进:在方面术语提取模块中,使用多头自注意力机制获取词性特征,融合视觉特征、文本特征、词性特征作为分类层的输入,提升了方面术语提取的性能;在情感分类模块,为充分发挥观点词对情感分类的作用,通过词性标注将动词、形容词、副词、介词标记为观点词,在情感分类中增加对这些观点词的注意权重,并将观点词特征融入到最后的分类层以提升情感分类的性能. 本文提出的方法与多个基线模型相比,在方面术语提取、方面级情感分类、AESC任务上的性能都有明显的提升.

    本文的主要贡献有3个方面:

    1) 在多模态领域提出方面术语提取和方面级情感分类的统一框架UMAS (unified multi-modal aspect sentiment),通过建模方面术语提取和方面级情感分类任务之间的语义关联,同时提高了方面-情感对提取的性能和效率.

    2) 本文通过引入词性特征提升了方面术语提取的性能;通过词性标注获取观点词特征并结合位置信息,提升了方面级情感分类的性能.

    3) 该统一框架在Twitter2015,Restaurant2014这2个基准数据集上相比于多个基线模型在方面术语提取、方面级情感分类、AESC任务上都具有优越的性能.

    目前,文本领域的基于方面的情感分析研究发展的比较成熟,现有研究[12-18]在Restaurant,Laptop,Twitter等数据集上,根据提供的方面术语预测情感类别;Ying 等人[19]根据方面术语提取对应的观点并判断情感倾向;Oh等人[20]、Chen等人 [21]、Xu等人[22]则使用多任务模型将方面术语提取、观点词提取、情感分类3个任务统一. 其中,Chen等人 [21]详细阐述了3个任务之间的关系,并在多层的网络模型RACL中通过关系传导机制促进子任务之间的协作,最终以序列标注的方式分别输出3个任务的结果. RACL将3个任务的关系总结如下:方面术语和观点词存在对应关系(比如“美味”一词不适合描述地点),方面术语和观点词的配对有助于预测情感,观点词对情感预测有最直接的帮助,方面术语是情感依托的对象. 文本领域的方面术语提取方法更关注文本的语法信息,Phan 等人[23]和薛芳等人[24]借助句法成分、依存关系提升方面术语提取的性能. 在情感分类中,Chen等人[21]、He 等人[25]利用观点词的信息提升了情感推断的准确性,He 等人[25]还利用了位置信息使注意力集中在方面的上下文. 文本领域基于方面的情感分析的研究,对多模态基于方面的情感分析的研究有重要的启发式意义.

    在多模态领域,可使用Zhang等人[7]提出的方面术语抽取模型和Yu 等人[8]提出的方面级情感分类模型流水线式地抽取方面-情感对. 尽管流水线方法符合人们处理此类问题的直觉且有利于灵活变动2个模型,但Wang等人[26]指出该方法在方面术语提取中的错误将传播到情感预测阶段,导致方面-情感对预测性能下降. 方面术语提取和方面级情感分类2个模型的独立无法像RACL一样建模2个任务之间的语义联系,且串行执行使得模型效率低下. 多模态方面术语提取方法[7,9-10]充分关注了图像对提取方面术语的帮助,并且使用门控机制降低图像引入的噪音,但忽视了文本中包含的语法信息. 在文本领域的方面级情感分类中,多种方法[19-21]利用观点词提取作为辅助任务提升情感分类的效果,然而多模态方面级情感分类的数据集主要是Twitter,目前数据集中包含的信息包括句子、图片、方面、情感等的标准,但是未有观点词的标注信息,所以多模态领域中以观点词提取为辅助任务的方法不存在监督信息,难以开展. 此外,目前多模态方面级情感分类模型如EASFN[8],ABAFN[12],以句子、图像、方面术语为输入,一次只能识别一个方面的情感,而文本领域采用序列标注的方法可同时识别句子中所有方面的情感.

    本节主要介绍任务定义,并详细阐述本文所提出的基于多模态方面术语提取和方面级情感分类的统一框架.

    给定长度为n的句子,即S={w1,w2,,wn},方面术语提取任务的目的是获取句子的方面术语标注序列YA={yA1,yA2,,yAi,,yAn},yAi{B,I,O},其中B表示方面术语的开始单词,I表示方面术语的中间单词及结尾单词,O表示不是方面术语. 而方面级情感分类任务的目的是获取句子的情感标注序列YS={yS1,yS2,,ySi,,ySn},ySi{0,1,2,3},其中0表示该单词不是方面术语,不被赋予情感,1表示情感为负面,2表示情感中立,3表示情感为正面. 方面术语提取和方面级情感分类的目的是抽取句子中包含的方面-情感对,即YP={as1,ae1,s1,,asi,aei,si,,asm,aem,sm}其中asi,aei,si分别为第i个方面术语的起始位置、终止位置和对应的情感类别.

    本文设计的方面术语提取和方面级情感分类的统一框架主要分为3个模块:共享特征模块、方面术语提取模块和情感分类模块,模型图如图1所示.

    图  1  本文模型框架
    Figure  1.  Framework of our proposed model

    在共享特征模块,使用VGG-16模型[27]获取图片特征表示,通过双向长短期记忆网络(bi-long short-term memory,BiLSTM)获取单词和字符的联合特征表示,通过多头自注意力机制[28]获取词性特征表示. 方面术语提取模块和情感分类模块以共享特征为输入,编码出特定于各自任务的私有特征. 在方面术语提取模块,通过文本和图像的交互注意力以及门控机制获取多模态表示,并与文本及词性特征拼接,作为方面术语提取模块最终的融合特征,最后通过条件随机场(conditional random fields,CRF)层获取方面术语序列标注. 情感分类模块将共享特征和特有特征融合,获取情感特征和观点词特征. 通过门控机制融合由情感特征引导的视觉注意特征和情感特征以获得多模态特征,并通过情感文本注意、位置信息和词性获得观点词特征,然后,将多模态特征和情感特征以及观点词特征融合,通过全连接层及softmax层获得情感序列标注. 在获得方面术语序列标签和情感序列标签后,通过简单的代码提取方面-情感对,实现AESC任务的目标. 图2是本文所提出的基于多模态方面术语提取和方面级情感分类的统一框架.

    图  2  基于多模态方面术语提取和方面级情感分类的统一框架
    Figure  2.  Unified framework based on multimodal aspect term extraction and aspect-level sentiment classification

    本文提出的方面术语提取和方面级情感分类的统一框架借鉴了多任务学习的思路,即通过参数共享建模2个子任务的语义联系,提升每个子任务的性能,并使用子任务的加权损失作为模型的损失. 但多任务模型通常有多个主要目标,而本文所提出的模型的主要目标只有1个,即抽取方面-情感对.

    共享特征模块的图像特征、文本特征、词性特征分别由图像编码器、文本编码器、词性编码器生成.

    裁剪图片为224×224像素,作为VGG-Net16[27]的输入,图像编码器保留最后1层池化层输出结果作为图像特征(维度为512×7×7). 其中,7×7代表图像的49个区域,512表示每个区域的特征维度. 所以图像特征可表示为{\widetilde{v}_{\mathrm{I}}}=\left\{{\boldsymbol{v}}_{i}\right|{{{\boldsymbol{v}}}}_{i}\in {\mathbb{R}}^{{d}_{\boldsymbol{v}}},i=\mathrm{1,2},…,49\} {{\boldsymbol{v}}}_{i} 代表图像区域i的具有512维度的特征向量.

    字符级的嵌入式表示可以减轻罕见词和拼写错误的问题,且能捕获前缀后缀的信息,因此,本文将字符级表示作为单词表示的一部分. 通过查找字符向量表,可以获取第t个单词的字符表示{c}_{t,\mathrm{W}}= \{{\boldsymbol{c}}_{t,1}, {\boldsymbol{c}}_{t,2},…,{\boldsymbol{c}}_{t,m}\},其中{\boldsymbol{c}}_{t,i}\in {\mathbb{R}}^{{d}_{\mathrm{c}}}为第t个单词第i个字母的向量表示,m为单词的长度. k个不同窗口大小的卷积核[{C}_{1},{C}_{2},…,{C}_{k}]被应用在单词特征上,每一次卷积后加一步最大池化操作,最后将获得的k个特征{\boldsymbol{w}'}_{t,1}{\boldsymbol{w}'}_{t,2},…,{\boldsymbol{w}'}_{t,k}拼接在一起作为单词的字符级表示,即

    {\boldsymbol{w}}'_{t}=[{\boldsymbol{w}}'_{t,1}\oplus{\boldsymbol{w}}'_{t,2}\oplus…\oplus{\boldsymbol{w}}'_{t,k}]. (1)

    通过查询预训练的词向量矩阵,可获得单词t的词嵌入式表示{\boldsymbol{w}}''_{t},将其与字符特征{\boldsymbol{w}' }_{t}拼接在一起作为单词t的联合表示,即{\boldsymbol{w}}_{t}=[{\boldsymbol{w}}'_{t},{\boldsymbol{w}}''_{t}]. 接着,使用BiLSTM获取包含上下文信息的单词t的隐藏特征{\boldsymbol{h}}_{t},即

    {\boldsymbol{h}}_{t}=[\stackrel{\rightharpoonup}{{\boldsymbol{h}}_{t}},\stackrel{\leftharpoonup}{{\boldsymbol{h}}_{t}}], (2)
    \boldsymbol{H}=\left\{{\boldsymbol{h}}_{j}\right|{\boldsymbol{h}}_{j}\in {\mathbb{R}}^{d},j=\mathrm{1,2},…,n\}, (3)

    其中H表示最终的共享文本特征,d为隐藏特征的向量维度.

    Phan等人[23]使用句法成分信息提升了方面术语提取的准确率,本文同样也使用spaCy工具获取单词的词性. 根据随机初始化的词性向量矩阵,可获得句子的词性特征\widetilde{\boldsymbol{P}}=(\widetilde{{\boldsymbol{p}}_{1}},\widetilde{{\boldsymbol{p}}_{2}},…,\widetilde{{\boldsymbol{p}}_{n}})n为句子长度). 然后,本文使用文献[27]中的多头自注意力机制进一步获取深层次的词性嵌入式特征\boldsymbol{P}.

    本文提出的模型中共有2个结构相同的文本编码器,分别为共享文本编码器和情感模块的私有文本编码器. 方面术语提取模块和情感分类模块共享图像编码器、词性编码器、共享文本编码器的输出数据.

    方面术语提取模块通过文本注意和视觉注意建模不同模态之间的语义交互作用,使用门控机制获取多模态融合特征,并使用过滤门减少多模态引入的噪音,最后将多模态融合特征、文本特征、词性特征拼接作为CRF解码器的输入,获得方面术语标注序列.

    首先,使用线性层分别将图像特征映射到与文本同维度的空间,将共享文本特征编码为方面术语提取模块的私有文本特征,即

    {\boldsymbol{v}}_{\mathrm{I}}^{\mathrm{A}}={\rm{tanh}}({\boldsymbol{W}}_{\mathrm{I}}^{\mathrm{A}}\tilde{{\boldsymbol{v}}_{\mathrm{I}}}+{\boldsymbol{b}}_{\mathrm{I}}^{\mathrm{A}}), (4)
    {\boldsymbol{X}}^{\mathrm{A}}={\rm{tanh}}({\boldsymbol{W}}_{\mathrm{H}}^{\mathrm{A}}\boldsymbol{H}+{\boldsymbol{b}}_{\mathrm{H}}^{\mathrm{A}}), (5)

    其中{\boldsymbol{W}}_{\mathrm{I}}^{\mathrm{A}},{\boldsymbol{W}}_{\mathrm{H}}^{\mathrm{A}},{\boldsymbol{b}}_{\mathrm{I}}^{\mathrm{A}},{\boldsymbol{b}}_{\mathrm{H}}^{\mathrm{A}}为可训练参数.

    通常情况下,句子中的单词只对应图像中的一小块区域,为减小图像其他区域引入的噪音,该模块使用文本引导的视觉注意来获取不同区域的权重,图像区域与单词越相关,它被赋予的权重越大. 给定一个单词的特征{\boldsymbol{x}}_{t}^{\mathrm{A}}{{\boldsymbol{x}}_{t}^{\mathrm{A}}\in \boldsymbol{X}}^{\mathrm{A}}),通过神经网络和softmax函数来生成单词t对应的图像权重分布{\boldsymbol{\alpha }}_{t},并通过加权和生成单词t对应的图像特征表示\widehat{{\boldsymbol{v}}_{t}^{\mathrm{A}}},即

    {\boldsymbol{z}}_{t}^{\mathrm{M}}={\rm{tanh}}({\boldsymbol{W}}_{{\boldsymbol{v}}_{\mathrm{I}}^{\mathrm{A}}}{\boldsymbol{v}}_{\mathrm{I}}^{\mathrm{A}}\oplus({\boldsymbol{W}}_{{\boldsymbol{h}}_{t}}{\boldsymbol{x}}_{t}^{\mathrm{A}}+{\boldsymbol{b}}_{{\boldsymbol{h}}_{t}}\left)\right), (6)
    {\boldsymbol{\alpha }}_{t}={s}{o}{f}{t}{m}{a}{x}({\boldsymbol{W}}_{{\boldsymbol{\alpha }}_{t}}{\boldsymbol{z}}_{t}^{{{\rm{M}}}}+{\boldsymbol{b}}_{{\boldsymbol{\alpha }}_{t}}), (7)
    \widehat{{\boldsymbol{v}}_{t}^{\mathrm{A}}}=\sum _{i}{\boldsymbol{\alpha }}_{t,i}{\boldsymbol{v}}_{i}^{\mathrm{A}}, (8)

    其中{\boldsymbol{x}}_{t}^{\mathrm{A}}\in {\mathbb{R}}^{d}d为单词和图像特征的维度,{\boldsymbol{v}}_{\mathrm{I}}^{\mathrm{A}}\in {\mathbb{R}}^{d\times N}表示N个图片区域的特征, {\boldsymbol{v}}_{i}^{\mathrm{A}}\in {\mathbb{R}}^{d} 表示图片第i个区域的特征. {\boldsymbol{W}}_{{\boldsymbol{v}}_{\mathrm{I}}^{\mathrm{A}}},{\boldsymbol{W}}_{{\boldsymbol{h}}_{t}},{\boldsymbol{W}}_{{\boldsymbol{\alpha }}_{t}},{\boldsymbol{b}}_{{\boldsymbol{h}}_{t}},{\boldsymbol{b}}_{{\boldsymbol{\alpha }}_{t}}为可训练的参数. 符号\oplus表示2个特征的拼接,当2个操作数分别为矩阵和向量时,表示复制多个向量与矩阵的每一列进行拼接.

    类似地,上下文有助于丰富当前单词特征包含的信息,且对上下文不同的单词应当有不同的关注程度,所以本文通过视觉引导的文本注意力来获取单词t所需关注的上下文的权重{\boldsymbol{\beta }}_{t},通过对句子中单词的加权获得单词t的新的特征表示.

    {\boldsymbol{z}}_{t}^{\mathrm{T}}={\rm{tanh}}({\boldsymbol{W}}_{{\boldsymbol{X}}^{\mathrm{A}}}{\boldsymbol{X}}^{\mathrm{A}}\oplus({\boldsymbol{W}}_{\boldsymbol{X},\widehat{{\boldsymbol{v}}_{t}^{\mathrm{A}}}}\widehat{{\boldsymbol{v}}_{t}^{\mathrm{A}}}+{\boldsymbol{b}}_{\boldsymbol{X},\widehat{{\boldsymbol{v}}_{t}^{\mathrm{A}}}}\left)\right), (9)
    {\boldsymbol{\beta }}_{t}={s}{o}{f}{t}{m}{a}{x}({\boldsymbol{W}}_{{\boldsymbol{\beta }}_{t}}{\boldsymbol{z}}_{t}^{{{\rm{T}}}}+{\boldsymbol{b}}_{{\boldsymbol{\beta }}_{t}}), (10)
    \widehat{{\boldsymbol{x}}_{t}^{\mathrm{A}}}=\sum _{j}{\boldsymbol{\beta }}_{t,j}{\boldsymbol{x}}_{j}^{\mathrm{A}}, (11)

    其中{\boldsymbol{W}}_{{\boldsymbol{X}}^{\mathrm{A}}},{\boldsymbol{W}}_{\boldsymbol{X},\widehat{{\boldsymbol{v}}_{t}^{\mathrm{A}}}},{\boldsymbol{W}}_{{\boldsymbol{\beta }}_{t}},{\boldsymbol{b}}_{\boldsymbol{X},\widehat{{\boldsymbol{v}}_{t}^{\mathrm{A}}}},{\boldsymbol{b}}_{{\boldsymbol{\beta }}_{t}}为可训练的参数.

    当句子中包含多个实体时,往往并不是每个实体都存在与图像中的某个区域对应的关系,可能图片中描述了一个实体,而句子中有3个不同的实体. 为此,在融合多模态特征时,也需动态权衡视觉特征和文本特征的比例. 方面术语提取模块使用式(12)~(15)获取多模态融合特征{\boldsymbol{m}}_{t}^{\mathrm{A}}

    {\boldsymbol{h}}_{\widehat{{\boldsymbol{v}}_{t}^{\mathrm{A}}}}={\rm{tanh}}({\boldsymbol{W}}_{\widehat{{\boldsymbol{v}}_{t}^{\mathrm{A}}}}\widehat{{\boldsymbol{v}}_{t}^{\mathrm{A}}}+{\boldsymbol{b}}_{\widehat{{\boldsymbol{v}}_{t}^{\mathrm{A}}}}), (12)
    {\boldsymbol{h}}_{\widehat{{\boldsymbol{x}}_{t}^{\mathrm{A}}}}={\rm{tanh}}({\boldsymbol{W}}_{\widehat{{\boldsymbol{x}}_{t}^{\mathrm{A}}}}\widehat{{\boldsymbol{x}}_{t}^{\mathrm{A}}}+{\boldsymbol{b}}_{\widehat{{\boldsymbol{x}}_{t}^{\mathrm{A}}}}), (13)
    {\boldsymbol{g}}_{t}=\sigma \left({\boldsymbol{W}}_{{\boldsymbol{g}}_{t}}\left({\boldsymbol{h}}_{\widehat{{\boldsymbol{v}}_{t}^{\mathrm{A}}}}\oplus{\boldsymbol{h}}_{\widehat{{\boldsymbol{x}}_{t}^{\mathrm{A}}}}\right)\right), (14)
    {\boldsymbol{m}}_{t}^{\mathrm{A}}={\boldsymbol{g}}_{t}{\boldsymbol{h}}_{\widehat{{\boldsymbol{v}}_{t}^{\mathrm{A}}}}+(1-{\boldsymbol{g}}_{t}){\boldsymbol{h}}_{\widehat{{\boldsymbol{x}}_{t}^{\mathrm{A}}}}, (15)

    其中 {\boldsymbol{W}}_{\widehat{{\boldsymbol{v}}_{t}^{\mathrm{A}}}},{\boldsymbol{W}}_{\widehat{{\boldsymbol{x}}_{t}^{\mathrm{A}}}},{\boldsymbol{W}}_{{\boldsymbol{g}}_{t}},{\boldsymbol{b}}_{\widehat{{\boldsymbol{v}}_{t}^{\mathrm{A}}}},{\boldsymbol{b}}_{\widehat{{\boldsymbol{x}}_{t}^{\mathrm{A}}}} 为参数, {\boldsymbol{h}}_{\widehat{{\boldsymbol{v}}_{t}^{\mathrm{A}}}},{\boldsymbol{h}}_{\widehat{{\boldsymbol{x}}_{t}^{\mathrm{A}}}} 分别为使用线性层获取的单词t对应的新的视觉特征和文本特征, {\boldsymbol{g}}_{t} 为通过sigmoid激活函数获取的视觉特征的权重.

    尽管多模态融合特征考虑了文本和图像的权重,但方面术语提取所依赖的最重要的数据应该是文本,

    所以方面术语提取模块将初始的文本特征、多模态特征和词性特征拼接起来作为解码器的输入. 此外,当预测的单词是动词或副词时,加入图像特征会引起噪音,所以在拼接之前,对多模态特征进行过滤操作,具体公式为:

    {\boldsymbol{s}}_{t}=\sigma ({\boldsymbol{W}}_{{\boldsymbol{s}}_{t},{\boldsymbol{x}}_{t}^{\mathrm{A}}}{\boldsymbol{x}}_{t}^{\mathrm{A}}\oplus({\boldsymbol{W}}_{{\boldsymbol{m}}_{t}^{\mathrm{A}},{\boldsymbol{s}}_{t}}{\boldsymbol{m}}_{t}^{\mathrm{A}}+{\boldsymbol{b}}_{{\boldsymbol{m}}_{t}^{\mathrm{A}},{\boldsymbol{s}}_{t}}\left)\right), (16)
    {\boldsymbol{u}}_{t}^{\mathrm{A}}={\boldsymbol{s}}_{t}\left({\rm{tanh}}\right({\boldsymbol{W}}_{{\boldsymbol{m}}_{t}^{\mathrm{A}}}{\boldsymbol{m}}_{t}^{\mathrm{A}}+{\boldsymbol{b}}_{{\boldsymbol{m}}_{t}^{\mathrm{A}}}\left)\right), (17)
    \widehat{{\boldsymbol{m}}_{t}^{\mathrm{A}}}={\boldsymbol{W}}_{\widehat{{\boldsymbol{m}}_{t}^{\mathrm{A}}}}({\boldsymbol{x}}_{t}^{\mathrm{A}}\oplus{\boldsymbol{u}}_{t}^{\mathrm{A}}\oplus{\boldsymbol{p}}_{t}^{\mathrm{A}}), (18)
    \widehat{{\boldsymbol{M}}^{\mathrm{A}}}=\{\widehat{{\boldsymbol{m}}_{1}^{\mathrm{A}}},\widehat{{\boldsymbol{m}}_{2}^{\mathrm{A}}},…,\widehat{{\boldsymbol{m}}_{n}^{\mathrm{A}}}\}, (19)

    其中 {{\boldsymbol{W}}_{{\boldsymbol{s}}_{t},{\boldsymbol{x}}_{t}^{\mathrm{A}}},\boldsymbol{W}}_{{\boldsymbol{m}}_{t}^{\mathrm{A}},{\boldsymbol{s}}_{t}},{\boldsymbol{W}}_{{\boldsymbol{m}}_{t}^{\mathrm{A}}},{\boldsymbol{W}}_{\widehat{{\boldsymbol{m}}_{t}^{\mathrm{A}}}},{\boldsymbol{b}}_{{\boldsymbol{m}}_{t}^{\mathrm{A}},{\boldsymbol{s}}_{t}},{\boldsymbol{b}}_{{\boldsymbol{m}}_{t}^{\mathrm{A}}} 为参数, {\boldsymbol{x}}_{t}^{\mathrm{A}}{,\boldsymbol{u}}_{t}^{\mathrm{A}},{\boldsymbol{p}}_{t}^{\mathrm{A}} 分别为单词t的文本特征、过滤后的多模态特征、词性特征, \widehat{{\boldsymbol{M}}^{\mathrm{A}}} 为最终方面术语提取模块的句子表示.

    最后,方面术语提取模块使用CRF作为解码器进行方面术语的序列标注. 以 \boldsymbol{X}= \{{\boldsymbol{w}}_{0},{\boldsymbol{w}}_{1},. ..,{\boldsymbol{w}}_{T}\} 作为一般化的输入序列,其中 {\boldsymbol{w}}_{i} 表示第i个单词的特征向量, Y=\{{Y}_{0},{y}_{1},. ..,{y}_{T}\} 表示X对应的一种序列标签,Y表示所有可能的序列标注集合. 对于给定的X,所有可能的y可以由式(20)计算得到:

    p\left(y\right|\boldsymbol{X})=\frac{\prod\limits _{i=1}^{T}{\Omega }_{i}({y}_{i-1},{y}_{i},\boldsymbol{X})}{\sum _{{y}^{{'}}\in Y}\prod\limits _{i=1}^{T}{\Omega }_{i}({y}_{i-1}^{{'}},{y}_{i}^{{'}},\boldsymbol{X})}, (20)

    其中\varOmega表示可能性函数.

    情感分类模块可以分为4个部分:情感私有特征、多模态融合、观点词特征、情感分类.

    由于方面术语提取和情感分类的目标不一致,使用完全的共享特征机制会使训练效果不好,同时共享特征包含的信息有助于在底层更好地表现2个任务之间的语义联系,特别是方面作为情感的寄托者有助于情感的预测. 所以,在情感分类模块,存在一个私有的文本编码器以获取特有的情感特征. 接着,将共享表示层的文本特征和特有情感特征进行动态融合. 考虑使用动态融合是因为更关注共享特征中的方面而非其他单词. 该模块的情感私有特征表示 {\boldsymbol{X}}^{\mathrm{S}} 由式(21)~(25)获取:

    {\boldsymbol{H}}^{\mathrm{S}}={f}^{\mathrm{S}\mathrm{C}}\left(\boldsymbol{S}\right), (21)
    \widehat{{\boldsymbol{H}}^{\mathrm{S}}}={\rm{tanh}}({\boldsymbol{W}}_{{\boldsymbol{H}}^{\mathrm{S}}}{\boldsymbol{H}}^{\mathrm{S}}+{\boldsymbol{b}}_{{\boldsymbol{H}}^{\mathrm{S}}}), (22)
    \widehat{\boldsymbol{H}}={\rm{tanh}}({\boldsymbol{W}}_{\boldsymbol{H}}\boldsymbol{H}+{\boldsymbol{b}}_{\boldsymbol{H}}), (23)
    {\boldsymbol{g}}^{\mathrm{S}}=\sigma \left({\boldsymbol{W}}_{{\boldsymbol{g}}^{\mathrm{S}}}\right(\widehat{{\boldsymbol{H}}^{\mathrm{S}}}\oplus \widehat{\boldsymbol{H}}\left)\right), (24)
    {\boldsymbol{X}}^{\mathrm{S}}={\boldsymbol{g}}^{\mathrm{S}}\widehat{{\boldsymbol{H}}^{\mathrm{S}}}+(1-{\boldsymbol{g}}^{\mathrm{S}})\widehat{\boldsymbol{H}}, (25)

    其中, {f}^{\mathrm{S}\mathrm{C}} 表示表示情感模块私有文本编码器的函数,S表示输入的句子, {\boldsymbol{W}}_{{\boldsymbol{H}}^{\mathrm{S}}},{\boldsymbol{W}}_{\boldsymbol{H}},{\boldsymbol{W}}_{{\boldsymbol{g}}^{\mathrm{S}}},{\boldsymbol{b}}_{{\boldsymbol{H}}^{\mathrm{S}}},{\boldsymbol{b}}_{\boldsymbol{H}} 为参数.

    用户在社交媒体发布的文字具有不完整、较短、口语化的特点,仅仅使用文本内容来推测情感是不充分的. 因此,情感分类模块使用图像信息来提升预测的准确性. 与方面术语提取模块一样,在判断单词t(假设单词t为方面术语)的情感时,需要着重关注图像中该方面对应的区域,应尽量减少其他区域引起的干扰,所以使用相同的方法为不同的视觉区域分配不同的权重. 首先,将共享图像特征转换至与文本同一维度的空间内,然后使用情感引导的注意获取图像的权重分布 {{\boldsymbol{\gamma}} }_{t} ,最终加权获得单词t在情感分类模块对应的图像特征 \widehat{{\boldsymbol{v}}_{t}^{\mathrm{S}}} ,运算公式为:

    {\boldsymbol{v}}_{\mathrm{I}}^{\mathrm{S}}={\rm{tanh}}({\boldsymbol{W}}_{\mathrm{I}}^{\mathrm{S}}\widetilde{{\boldsymbol{v}}_{\mathrm{I}}}+{\boldsymbol{b}}_{\mathrm{I}}^{\mathrm{S}}), (26)
    {\boldsymbol{z}}_{t}^{\mathrm{S}}={\rm{tanh}}({\boldsymbol{W}}_{{\boldsymbol{v}}_{\mathrm{I}}^{\mathrm{S}}}{\boldsymbol{v}}_{\mathrm{I}}^{\mathrm{S}}\oplus({\boldsymbol{W}}_{{\boldsymbol{h}}_{t}}{\boldsymbol{x}}_{t}^{\mathrm{S}}+{\boldsymbol{b}}_{{\boldsymbol{h}}_{t}}\left)\right), (27)
    {\boldsymbol{\gamma }}_{t}={s}{o}{f}{t}{m}{a}{x}({\boldsymbol{W}}_{{\boldsymbol{\gamma }}_{t}}{\boldsymbol{z}}_{t}^{{{\rm{S}}}}+{\boldsymbol{b}}_{{\boldsymbol{\gamma }}_{t}}), (28)
    \widehat{{\boldsymbol{v}}_{t}^{\mathrm{S}}}=\sum _{i}{\boldsymbol{\gamma }}_{t,i}{\boldsymbol{v}}_{i}^{\mathrm{S}}, (29)

    其中 {\boldsymbol{W}}_{\mathrm{I}}^{\mathrm{S}} , {\boldsymbol{W}}_{{\boldsymbol{v}}_{\mathrm{I}}^{\mathrm{S}}} , {\boldsymbol{W}}_{{\boldsymbol{h}}_{t}} , {\boldsymbol{W}}_{{\boldsymbol{\gamma }}_{t}} , {\boldsymbol{b}}_{\mathrm{I}}^{\mathrm{S}} , {\boldsymbol{b}}_{{\boldsymbol{h}}_{t}} , {\boldsymbol{b}}_{{\boldsymbol{\gamma }}_{t}} 为可训练的参数.

    不同于方面术语提取模块对文本引入视觉注意的处理,在情感分类模块,为减少视觉特征引起的噪音,本文采用多头自注意的方式来获取单词t对上下文的关注,使某个位置的单词关注来自不同表示子空间的其他单词的特征. 该模块多头自注意力的查询矩阵、键矩阵、值矩阵都为情感特征矩阵. 最终多头自注意力输出的文本特征为 \widehat{{\boldsymbol{X}}^{\mathrm{S}}} .

    接着,同样通过门控机制获得情感特征和图像特征的多模态融合特征 {\boldsymbol{m}}_{t}^{\mathrm{S}} .

    {\boldsymbol{h}}_{\widehat{{\boldsymbol{v}}_{t}^{\mathrm{S}}}}={\rm{tanh}}({\boldsymbol{W}}_{\widehat{{\boldsymbol{v}}_{t}^{\mathrm{S}}}}\widehat{{\boldsymbol{v}}_{t}^{\mathrm{S}}}+{\boldsymbol{b}}_{\widehat{{\boldsymbol{v}}_{t}^{\mathrm{S}}}}), (30)
    {\boldsymbol{h}}_{\widehat{{\boldsymbol{x}}_{t}^{\mathrm{S}}}}={\rm{tanh}}({\boldsymbol{W}}_{\widehat{{\boldsymbol{x}}_{t}^{\mathrm{S}}}}\widehat{{\boldsymbol{x}}_{t}^{\mathrm{S}}}+{\boldsymbol{b}}_{\widehat{{\boldsymbol{x}}_{t}^{\mathrm{S}}}}), (31)
    {\boldsymbol{g}}_{t}^{\mathrm{S}}=\sigma \left({\boldsymbol{W}}_{{\boldsymbol{g}}_{t}^{\mathrm{S}}}\right({\boldsymbol{h}}_{\widehat{{\boldsymbol{v}}_{t}^{\mathrm{S}}}}\oplus{\boldsymbol{h}}_{\widehat{{\boldsymbol{x}}_{t}^{\mathrm{S}}}}\left)\right), (32)
    {\boldsymbol{m}}_{t}^{\mathrm{S}}={\boldsymbol{g}}_{t}^{\mathrm{S}}{\boldsymbol{h}}_{\widehat{{\boldsymbol{v}}_{t}^{\mathrm{S}}}}+(1-{\boldsymbol{g}}_{t}^{\mathrm{S}}){\boldsymbol{h}}_{\widehat{{\boldsymbol{x}}_{t}^{\mathrm{S}}}}, (33)

    其中 {\boldsymbol{W}}_{\widehat{{\boldsymbol{v}}_{t}^{\mathrm{S}}}} , {\boldsymbol{W}}_{\widehat{{\boldsymbol{x}}_{t}^{\mathrm{S}}}} , {\boldsymbol{W}}_{{\boldsymbol{g}}_{t}^{\mathrm{S}}} , {\boldsymbol{b}}_{\widehat{{\boldsymbol{v}}_{t}^{\mathrm{S}}}} , {\boldsymbol{b}}_{\widehat{{\boldsymbol{x}}_{t}^{\mathrm{S}}}} 为参数.

    由于人们表达情感是通过观点抒发的,即观点词有助于情感的判断,所以本文模块中使用词性标注识别的观点词信息帮助情感的预测,首先使用简单的神经网络编码得到观点词特征表示 {\boldsymbol{X}}^{\mathrm{O}} .

    {\boldsymbol{X}}^{\mathrm{O}}={\rm{tanh}}({\boldsymbol{W}}_{\mathrm{S}}^{\mathrm{O}}{\boldsymbol{X}}^{\mathrm{S}}+{\boldsymbol{b}}_{\mathrm{S}}^{\mathrm{O}}), (34)

    其中 {\boldsymbol{W}}_{\mathrm{S}}^{\mathrm{O}} , {\boldsymbol{b}}_{\mathrm{S}}^{\mathrm{O}} 为参数.

    观点描述的短语通常由动词、副词、形容词、介词构成,比如“agree with”“run fast”“beautiful”等. 在获取第t个单词的上下文时,应该给予这些单词更多的权重. 此外,通常情况下,观点词会出现在描述对象的附近,因此,位置关系也可以被考虑. 基于上述的分析,为获取单词t对应的观点信息,本文模块使用单词t(假设为方面术语)引导的注意,并考虑形容词、副词、动词和介词的权重以及位置权重,最终得到单词t对应的观点特征.

    {\boldsymbol{z}}_{t}^{\mathrm{O}}={\rm{tanh}}({\boldsymbol{W}}_{{\boldsymbol{X}}^{\mathrm{O}}}{\boldsymbol{X}}^{\mathrm{O}}\oplus({\boldsymbol{W}}_{\mathrm{O},{\boldsymbol{x}}_{t}^{\mathrm{S}}}{\boldsymbol{x}}_{t}^{\mathrm{S}}+{\boldsymbol{b}}_{\mathrm{O},{\boldsymbol{x}}_{t}^{\mathrm{S}}}\left)\right), (35)
    \widehat{{\boldsymbol{z}}_{t,i}^{\mathrm{O}}}={\boldsymbol{z}}_{t,i}^{\mathrm{O}}\cdot {\left[\mathrm{l}\mathrm{o}\mathrm{g}\right(2+|i-t|\left)\right]}^{-1}\cdot {\boldsymbol{\varphi }}_{i}, (36)
    {\boldsymbol{\varphi }}_{i}=\left\{\begin{split}&w,{\rm{if}}\;{w}_{i}\;{\rm{is}}\;{\rm{the}}\;{\rm{opinion}},\\ &0,{\rm{if}}\;{w}_{i}\;{\rm{is}}\;{\rm{not}}\;{\rm{the}}\;{\rm{opinion}},\end{split}\right. (37)
    {\boldsymbol{\kappa }}_{t}={s}{o}{f}{t}{m}{a}{x}({\boldsymbol{W}}_{{\boldsymbol{\kappa }}_{t}}\widehat{{\boldsymbol{z}}_{t}^{{{\rm{O}}}}}+{\boldsymbol{b}}_{{\boldsymbol{\kappa }}_{t}}), (38)
    \widehat{{\boldsymbol{x}}_{t}^{\mathrm{O}}}=\sum _{i}{\boldsymbol{\kappa }}_{t,i}{\boldsymbol{x}}_{i}^{\mathrm{O}}, (39)

    其中 {\boldsymbol{W}}_{{\boldsymbol{X}}^{\mathrm{O}}} , {\boldsymbol{W}}_{\mathrm{O},{\boldsymbol{x}}_{t}^{\mathrm{S}}} , {\boldsymbol{W}}_{{\boldsymbol{\kappa }}_{t}} , {\boldsymbol{b}}_{\mathrm{O},{\boldsymbol{x}}_{t}^{\mathrm{S}}} , {\boldsymbol{b}}_{{\boldsymbol{\kappa }}_{t}} 为参数. w 为超参,表示观点词的权重. \widehat{{\boldsymbol{x}}_{t}^{\mathrm{O}}} 为最终的观点词特征.

    将多模态融合特征、情感特征、观点特征融合,输入到分类层,得到最后的情感分类结果为:

    \widehat{{\boldsymbol{m}}_{t}^{\mathrm{S}}}={\boldsymbol{m}}_{t}^{\mathrm{S}}\oplus{\boldsymbol{x}}_{t}^{\mathrm{S}}\oplus \widehat{{\boldsymbol{x}}_{t}^{\mathrm{O}}}, (40)
    \widehat{{\boldsymbol{M}}^{\mathrm{S}}}=\{\widehat{{\boldsymbol{m}}_{1}^{\mathrm{S}}},\widehat{{\boldsymbol{m}}_{2}^{\mathrm{S}}},. ..,\widehat{{\boldsymbol{m}}_{n}^{\mathrm{S}}}\}, (41)
    p\left({y}_{t}^{\boldsymbol{S}}\right|\widehat{{\boldsymbol{m}}_{t}^{\boldsymbol{S}}})={s}{o}{f}{t}{m}{a}{x}({\boldsymbol{W}}_{{s}}\widehat{{\boldsymbol{m}}_{t}^{{{\rm{S}}}}}+{\boldsymbol{b}}_{{s}}), (42)

    其中 {\boldsymbol{W}}_{\mathrm{s}} , {\boldsymbol{b}}_{\mathrm{s}} 为可训练参数.

    AESC模块的损失函数是最小化交叉熵损失,实验的目标是最小化这2个模块的加权损失,即

    {\mathcal{L}}^{\mathrm{A}}=-\frac{1}{N}\sum _{i}\mathrm{l}\mathrm{o}\mathrm{g}p\left({y}_{i}^{\mathrm{A}}\right|\widehat{{\boldsymbol{M}}^{\mathrm{A}}}), (43)
    {\mathcal{L}}^{\mathrm{S}}=-\frac{1}{N}\sum _{i}\mathrm{l}\mathrm{o}\mathrm{g}p\left({y}_{i}^{\mathrm{S}}\right|\widehat{{\boldsymbol{M}}^{\mathrm{S}}}), (44)
    \mathcal{L}={{\alpha }_{1}\mathcal{L}}^{\mathrm{A}}+{{\alpha }_{2}\mathcal{L}}^{\mathrm{S}}, (45)
    {\alpha }_{1}+{\alpha }_{2}=1, (46)

    其中 {\alpha }_{1},{\alpha }_{2} 为超参,为2个模块损失函数的权重.

    通过AESC模块,可分别获取句子的方面术语和情感标注序列,即{Y}^{\mathrm{A}}= \left\{{y}_{1}^{\mathrm{A}},{y}_{2}^{\mathrm{A}},… ,{y}_{i}^{\mathrm{A}},…,{y}_{n}^{\mathrm{A}}\right\}, {y}_{i}^{\mathrm{A}}\in \left\{\mathrm{B},\mathrm{I},\mathrm{O}\right\}{Y}^{\mathrm{S}}=\{{y}_{1}^{\mathrm{S}},{y}_{2}^{\mathrm{S}},\mathrm{ }… , {y}_{i}^{\mathrm{S}},…, {y}_{n}^{\mathrm{S}}\}, {y}_{\mathrm{i}}^{\mathrm{S}}\in \{\mathrm{0,1},\mathrm{2,3}\}. 为了实现AESC任务的目标,本文进行方面-情感对抽取,具体的算法如算法1所示.

    算法1. 方面-情感对抽取.

    输入:句子长度L,方面术语标注序列 {Y}^{\mathrm{A}} ,情感标注序列 {Y}^{\mathrm{S}}

    输出:方面-情感对 {Y}^{\mathrm{P}} .

    ① 令 {Y}^{\mathrm{P}}=\left[\right],i=0

    ② while i<L do

    ③ if {Y}^{\mathrm{A}}\left[i\right]={=\mathrm{B}}\;\mathrm{t}\mathrm{h}\mathrm{e}\mathrm{n}

    ④ 令start=iend=i

    i+=1;

    ⑥ while i<L and {Y}^{\mathrm{A}}\left[i\right]=={\rm{I}} do

    end=i

    i+=1;

    ⑨ end while

    {Y}^{\mathrm{P}}.append\left(\right(start,end,{Y}^{\mathrm{S}}\left[start\right]\left)\right)

    ⑪ else

    i+=1;

    ⑬ end if

    ⑭ end while

    为验证本文所提出的模型的有效性,本文使用了数据集Twitter2015[8]和Restaurant2014[20]进行实验. Twitter2015[8]是一个多模态数据集,其包含文本内容、图片、方面信息以及情感类别信息. Restaurant2014[20]属于文本领域的方面级情感分类数据集,其不包含图片信息. 本文数据集的训练集、测试集以及验证集与来源保持一致. 表1表2分别是这2个数据集的统计信息.

    表  1  Twitter2015数据集统计信息
    Table  1.  Statistics of Twitter2015 Dataset
    数据集情感数量句子数量方面数量
    POSNEGNeutral
    训练集9283681 88321013179
    验证集3031496707271122
    测试集3171136076741037
    下载: 导出CSV 
    | 显示表格
    表  2  Restaurant2014数据集统计信息
    Table  2.  Statistics of Restaurant2014 Dataset
    数据集评分等级数量句子数量方面数量
    level 1level 2level 3level 4
    训练集17476455207324362985
    验证集41716211718608714
    测试集728196196148001134
    注:level是按评分等级划分的数据集.
    下载: 导出CSV 
    | 显示表格

    为了初始化模型中的词嵌入式表示,本文使用了Zhang等人[7]在3000万条推特上预训练好的GloVe[29]词嵌入式词典. 词嵌入式表示的维度为200,不在词典内的单词被随机初始化,并服从−0.25~0.25的均匀分布. 字符嵌入式表示、词性嵌入式表示的维度分别为30和16,且随机初始化服从−0.25~0.25的均匀分布. 句子和单词最大的长度都取数据集中的最大值,不满足最大值的单词或句子采用填充的方式使所有单词或句子等长. BiLSTM输出的隐藏向量维度为200,方面术语提取模块的私有特征维度为200,情感分类模块私有特征的维度为100. 方面术语提取和情感分类2个模块的损失权重分别为0.5和0.5. 训练过程中,周期(epoch)为50,批大小为20,优化器为Adam,学习率为0.001.

    在实验中用作对比的模型主要包括文本领域和多模态领域的模型.

    CMLA+TCap和DECNN+TCap.CMLA[30]和DECNN[31]是方面术语提取任务中经典的模型,TCap[32]是方面级情感分类领先的方法,本文分别将2个方面术语提取模型和1个情感分类模型进行整合,形成2个流水线模型.

    1)MNN[26]. 该模型是使用联合标注方法的方面术语提取和情感分类统一的模型.

    2)E2E-AESC[33]. 该模型是使用联合标注方法,并以观点词提取为辅助任务的方面术语提取和情感分类统一的模型.

    3)DOER[34]. 该模型是联合训练方面术语提取和情感分类的多任务统一框架.

    4)RACL[21]. 是将方面术语提取、观点词提取、情感分类统一的多任务模型,该模型使用多层叠加的框架.

    5)UMAS-Text. 该模型是本文提出的方面术语提取和方面级情感分类的统一框架,它将模型中关于视觉特征处理的网络层去除,变成处理纯文本数据的模型.

    1)VAM[9].VAM使用视觉注意机制和门控机制的多模态方面术语提取模型.

    2)ACN[7].ACN使用文本注意机制、视觉注意机制和门控机制的多模态方面术语提取模型.

    3)UMT[10].UMT使用Bert预训练模型表征文本的多模态方面术语提取模型.

    4)Res-RAM和Res-MGAN.它们是2个方面级情感分类模型. 采用Hazarika 等人[35]提出的多模态融合方法将视觉特征和RAM[36]或MGAN[37]的文本特征融合,最后采用softmax层分类.

    5)Res-RAM-TFN和Res-MGAN-TFN.它们是采用Zadeh等人[5]提出的多模态融合方法将视觉特征和RAM或MGAN的文本特征融合进行方面级情感分类的模型.

    6)MIMN[38]. MIMN是采用多跳记忆网络建模方面术语、文本和视觉之间交互关系的方面级情感分类模型,具有较高的性能.

    7)EASFN[8]. EASFN是目前多模态领域最新的方面级情感分类模型.

    8)ACN-ESAFN. ACN-ESAFN是使用ACN[7]获取方面术语、ESAFN[8]获取方面级情感的流水线模型.

    9)UMT-ESAFN. UMT-ESAFN是使用UMT[10]获取方面术语、ESAFN[8]获取方面级情感的流水线模型.

    10)UMAS-AE. UMAS-AE是将本文提出的模型中的共享特征模块和方面术语提取模块组合成单任务的方面术语提取模型.

    11)UMAS-SC. UMAS-SC是将本文提出的模型中的共享特征模块和情感分类模块组合成单任务的方面级情感分类模型.

    12)UMAS-Pipeline. UMAS-Pipeline是将独立的UMAS-AE和UMAS-SC模型使用流水线方式合并而成的模型.

    13)UMAS:UMAS是本文提出的多模态方面术语提取和方面级情感分类的统一框架,由2个模块共享浅层的特征表示.

    本文使用精确率(precision,P)、召回率(recall,R)、F1评价方面术语提取模型的性能,以下简记为AE-P、AE-R、AE-F1;使用准确率(accuracy,ACC)、F1评价情感分类的性能,简记为SC-ACC,SC-F1;使用F1评价方面-情感对提取的性能,简记为AESC-F1,即当且仅当方面术语提取和情感预测同时正确时记为预测正确.

    表3报告了本文所提出的模型UMAS在文本领域与现有方法的性能对比. 在文本数据集Restaurant2014上,UMAS的F1在方面术语提取、情感分类2个子任务上相较于第2优秀的模型RACL-GloVe的F1值分别提升了0.21个百分点和1.9个百分点,且方面-情感对的提取表现也是最好的. 说明UMAS在删除视觉处理的相关网络后,在文本领域也具有良好的表现.

    表  3  Restaurant2014数据集上UMAS-Text与现有方法的性能对比
    Table  3.  Performance Comparison of UMAS-Text and Existing Methods on Restaurant2014 Dataset %
    模型AE -F1SC-F1AESC-F1
    CMLA+TCap81.9171.3265.68
    DECNN+TCap82.7971.7766.84
    MNN83.0568.4563.87
    E2E-AESC83.9268.3866.6
    DOER84.6364.568.55
    RACL85.3774.4670.67
    UMAS-Text85.5876.3670.70
    注:加粗数字表示最优结果.
    下载: 导出CSV 
    | 显示表格

    表4表5报告了UMAS在多模态领域与现有方法在方面术语提取和方面级情感分类2个子任务上的性能对比. 在多模态数据集Twitter2015上,UMAS与当前3个方面术语提取模型相比,F1值分别提升了21.78个百分点、4.25个百分点、0.15个百分点,比使用BERT预训练的方面术语提取模型UMT略有优势. 方面术语提取的P值比ACN高了1.99个百分点. 然而R值比UMT模型低了2.22个百分点. 这一定程度上体现了UMAS相对于UMT在识别方面时边界更加严格,提升了P值的同时损失了R值. 在情感分类任务中,UMAS的性能超过了所有的基线模型,比当前最新的模型ESAFN的F1值提高了5.97个百分点、ACC提高了0.1个百分点.

    表  4  Twitter2015数据集上AE性能对比
    Table  4.  Performance Comparison of AE on Twitter2015 Dataset %
    模型AE -PAE -RAE -F1
    VAM58.1056.7057.39
    ACN79.1071.1774.92
    UMT78.5079.5679.02
    UMAS(本文)81.0977.3479.17
    注:加粗数字表示最优结果.
    下载: 导出CSV 
    | 显示表格
    表  5  Twitter2015数据集上SC性能对比
    Table  5.  Performance Comparison of SC on Twitter2015 Dataset %
    模型SC-ACCSC-F1
    Res-RAM71.5564.68
    Res-RAM-TFN69.9161.49
    Res-MGAN71.6563.88
    Res-MGAN-TFN70.364.14
    MIMN71.8465.69
    EASFN73.3867.37
    UMAS(本文)73.4873.34
    注:加粗数字表示最优结果.
    下载: 导出CSV 
    | 显示表格

    表6报告了UMAS和当前多模态流水线方法的性能对比. UMAS在多模态数据集上提取方面-情感对的F1值为58.05%,分别高于现有流水线方法2.49个百分点和1.16个百分点,且时间效率是现有方法的16.3倍和16倍,体现了本文所提出的统一框架具有最优的性能.

    表  6  Twitter2015数据集上AESC性能对比
    Table  6.  Performance Comparison of AESC on Twitter2015 Dataset
    模型AESC-F1/%运行时间/s
    ACN-ESAFN55.56163
    UMT-ESAFN56.89160
    UMAS(本文)58.0510
    注:加粗数字表示最优结果.
    下载: 导出CSV 
    | 显示表格

    表7报告了UMAS和单任务模型的性能对比. 结果表明,UMAS相比于方面术语提取和情感分类单任务模型,性能都有一定的提升,F1值分别提升了0.01个百分点和2.55个百分点,方面术语提取的ACC提升了2.79个百分点,情感分类的ACC提升了2.22个百分点. 然而,UMAS中方面术语提取的R值相对于单任务下降了2.7个百分点,这可能是因为在UMAS中方面的特征表示受到了情感模块的影响. 此外,UMAS的AESC性能与2个单任务串联的流水线模型对比,UMAS对方面-情感对提取性能有1.29个百分点的提升. 结果表明了底层的特征共享对2个子任务的性能提升都有帮助,通过建立2个任务之间的语义联系有利于提高方面-情感对提取的准确率.

    表  7  统一框架和单任务模型的对比
    Table  7.  Comparison of Unified Model and Single-Task Model %
    模型AE-PAE-RAE-F1SC-ACCSC-F1AESC-F1
    UMAS-AE78.3080.0479.16
    UMAS-SC71.2670.79
    UMAS-Pipeline78.3080.0479.1671.2670.7956.76
    UMAS(本文)81.0977.3479.1773.4873.3458.05
    注:加粗数字表示最优结果.
    下载: 导出CSV 
    | 显示表格

    结合表4表5表7,可以看出本文的方面术语提取单任务模型比ACN的性能高了4.24个百分点,验证了词性特征对方面术语提取的重要影响. 相比于其他方面级情感分类,本文的单任务情感分类模型也有较大的改善,说明观点词和位置信息对情感分类有一定的帮助.

    首先介绍UMAS的7个变体模型.

    1)UMAS-no_visual. 删除视觉特征.

    2)UMAS-no_POS_features. 删除词性特征.

    3)UMAS-no_opinion. 删除情感分类模块中观点词特征.

    4)UMAS-no_self_attention. 删除情感分类模块中情感特征的自注意机制.

    5)UMAS-no_gate_fusion. 将情感分类模块中私有特征获取部分的门控融合机制改为直接拼接操作.

    6)UMAS-special. 只保留情感模块中私有特征部分中的特有情感特征,删除共享文本特征.

    7)UMAS-share. 只保留情感模块中私有特征部分中的共享文本特征,删除特有情感特征.

    表8报告了变体模型的性能. 通过分别消除视觉特征、词性特征、观点特征、情感模块的自注意机制、情感模块私有特征的门控融合机制、情感模块的共享文本特征、情感模块的特有特征,验证了各个部分存在的作用. 由于2个模块之间存在参数的共享,所以一个模块的结构的变化不仅影响自身,而且影响另一个模块. 表8的第1行和最后1行的对比显示了视觉特征对方面术语提取和情感分类模块都有明显的性能提升,F1值分别提升了2.45个百分点和2.07个百分点. 情感分类模块中的观点词特征将方面级情感分类的性能整体提升了2.61个百分点. 情感模块的自注意机制对该模块的性能有2.83个百分点的提升. 情感模块私有特征获取的门控融合机制,既考虑了方面对情感预测的影响,也考虑了情感特征本身的重要性,将情感分类的F1提升了3.59个百分点,AESC性能提升了2.35个百分点. 根据表8最后3行的结果,可以看出在情感分类模块中的私有特征部分单独使用共享特征或特有特征的效果都不好,将这二者融合是最佳的选择.

    表  8  消融实验结果
    Table  8.  Results of Ablation Experiment %
    模型AE-PAE-RAE-F1SC-ACCSC-F1AESC-F1
    UMAS-no_visual77.6775.8076.7271.2671.2754.76
    UMAS-no_POS_features76.5977.6377.1171.2670.7354.69
    UMAS-no_opinion75.1679.3677.2073.0072.2855.44
    UMAS-no_self_attention75.8779.4677.6371.3670.5155.77
    UMAS-no_gate_fusion75.3078.7877.0271.2669.7555.70
    UMAS-special76.4677.0576.7571.3671.3654.76
    UMAS-share75.4478.7877.0868.2767.9152.55
    UMAS(本文)81.0977.3479.1773.4873.3458.05
    注:加粗数字表示最优结果.
    下载: 导出CSV 
    | 显示表格

    为了说明情感分类模块私有特征部分不同选择的不同效果,本节进行了相关的可视化分析. 首先,情感分类模块的私有特征可以有3种选择:情感模块私有文本编码器输出的特有情感表示、共享文本编码器输出的共享文本表示、特有情感表示和共享文本表示的融合特征. 为了方便说明,将这3种特征对应的模型记为UMAS-special,UMAS-share,UMAS-combine. 表9说明了图3图4涉及的统计量的含义.

    表  9  统计量说明
    Table  9.  Instruction of Statistics
    统计对象统计量说明
    combine_true_special_wrongUMAS-combine 预测正确而UMAS-special 预测错误的数量. 体现了UMAS-combine 对UMAS-special 的纠正能力.
    combine_wrong_special_trueUMAS-combine 预测错误而UMAS-special 预测正确的数量.
    combine_true_share_wrongUMAS-combine 预测正确而UMAS-share 预测错误的数量.
    combine_wrong_share_trueUMAS-combine 预测错误而UMAS-share 预测正确的数量.
    special_contributionUMAS-share 预测错误而UMAS-special 预测正确的数量.体现了UMAS-special 的特殊贡献.
    share_contributionUMAS-special 预测错误而UMAS-share 预测正确的数量.
    下载: 导出CSV 
    | 显示表格
    图  3  不同情感私有特征的结果对比
    Figure  3.  Result comparison of different sentiment private features
    图  4  不同表示对情感分类的贡献
    Figure  4.  Different representations contribute to sentiment classification

    图3显示了不同情感私有特征表示的结果. 首先,在AE模块,UMAS-combine预测正确且UMAS-special预测错误的数量为128,而UMAS-combine预测错误且UMAS-special预测正确的数量为99,说明UMAS-combine对UMAS-special的纠正能力要强于UMAS-special对UMAS-combine的纠正能力,即UMAS-combine模型的性能较优越. 通过图3中其他数据的对比分析,可以发现无论是对方面术语提取还是情感分类,UMAS-combine的性能总是要强于UMAS-special和UMAS-share. 其次,在情感分类模块,UMAS-special预测正确而UMAS-share预测错误的数量为83,而UMAS-share预测正确而UMAS-special预测错误的数量为53,体现了特有情感特征和共享特征对情感模块性能的不同贡献. 图4展示了特有情感特征和共享特征对情感模块的不同贡献程度,特有情感特征的贡献约为60%,共享特征的贡献程度约为40%.

    综上体现了将特有情感特征和共享文本特征进行动态融合的必要性,且特有情感特征对方面级情感分类的贡献比较突出. 同时,也说明了方面术语提取和方面级情感分类2个任务之间既有联系又有区别,既要考虑2个任务之间的交互关系,又要充分考虑任务本身的特征.

    为了解决目前AESC任务流水线方法的不足,本文提出了多模态方面术语提取和方面级情感分类的统一框架UMAS. 该统一框架使用3个共享编码器,即文本、图像、词性编码器构建方面术语提取模块和情感分类模块底层的共享特征模块. 该共享特征模块不仅使模型在训练过程中学习到2个任务之间的语义联系,而且简化了模型. 同时,该统一框架能并行地执行2个子任务,同时输出句子中的多个方面及其对应的情感类别,解决了流水线方法效率低的问题. 此外,本文通过词性标注获取单词的词性,并使用多头自注意机制获取词性特征,将视觉特征、文本特征、词性特征融合作为方面术语提取模块解码器的输入,提升了方面术语提取的性能. 在情感分类模块,本文使用词性识别句子中的观点词,在情感分析中增加对这些观点词的注意权重并考虑位置信息以提升情感分类的性能. 本文所提出的统一框架在Twitter2015和Restaurant2014这2个数据集上相比于其他基线模型都有良好的表现.

    随着transformer,BERT等技术的不断发展,在未来的研究中可以考虑将预训练技术加入到本文模型中以获得更好的特征表示.

    作者贡献声明:周如提出了算法思路和撰写论文;朱浩泽提出了实验方案并负责完成实验;郭文雅、于胜龙、张莹提出指导意见并修改论文.

  • 图  1   网络模型

    Figure  1.   Network model

    图  2   任务依赖模型

    Figure  2.   Task dependent model

    图  3   \alpha E/\left( {\alpha \times T} \right)的影响

    Figure  3.   Effect of \alpha on E/\left( {\alpha \times T} \right)

    图  4   权重对时间和能耗的影响

    Figure  4.   Effect of weights on time and energy consumption

    图  5   边缘服务器数量对总成本的影响

    Figure  5.   Effect of the number of edge servers on the total costs

    图  6   PSO迭代次数对总成本的影响

    Figure  6.   Effect of PSO iteration numbers on total costs

    图  7   任务数量对总成本的影响

    Figure  7.   Effect of task quantity on total costs

    图  8   应用程序大小对总成本的影响

    Figure  8.   Effect of App sizes on total costs

    图  9   任务的依赖关系对总成本的影响

    Figure  9.   Effect of task dependency relationship on total costs

    表  1   关键符号意义

    Table  1   Key Symbols Meaning

    符号意义
    V任务集合
    M边缘服务器集合
    {d_{vv'}}依赖任务vv'之间传输的数据量
    {R_{mm'}}边缘服务器m与边缘服务器m'的通信速率
    {M_v}可以处理任务v的边缘服务器集
    C\left( m \right)边缘服务器m的总CPU周期数
    {r_{vm}}边缘服务器m执行任务v每秒需要的CPU周期
    z_v^m任务v的卸载决策
    Pred\left( v \right)任务v的直接前驱任务集合
    S ucc(v)任务v的直接后继任务集合
    {t_v}任务的开始执行时间
    {t_{mm'}}边缘服务器mm'的传输时延
    {t_{vm}}边缘服务器m执行任务v所需时间
    T应用程序的完成时间
    {P_m}边缘服务器m的传输功率
    {P_{\max }}边缘服务器的最大传输功率
    \kappa 边缘服务器的能量系数
    {e_{vm}}边缘服务器m执行任务v所需能耗
    {e_{mm'}}边缘服务器mm'的传输能耗
    E应用程序的总能耗
    下载: 导出CSV

    表  2   实验参数

    Table  2   Experimental Parameters

    实验参数取值
    信道带宽B/{\text{GHz}}1
    背景噪声功率N/{\text{dBm}}−174
    边缘服务器的能量系数\kappa 16
    最大传输功率{p_{\max }}{\text{/dBm}}20
    边缘服务器间信道增益h{_{mm'}}10−6
    执行时延{t_{vm}}(1,10)
    下载: 导出CSV
  • [1]

    Mach P, Becvar Z. Mobile edge computing: A survey on architecture and computation offloading[J]. IEEE Communications Surveys and Tutorials, 2017, 19(3): 1628−1656 doi: 10.1109/COMST.2017.2682318

    [2]

    Wang Haipei, Lin Zhipeng, Lv T. Energy and delay minimization of partial computing offloading for D2D-assisted MEC systems [C/OL] //Proc of the 13th IEEE Wireless Communications and Networking Conf. Piscataway, NJ: IEEE, 2021 [2022-12-02].https://ieeexplore.ieee.org/document/9417536

    [3]

    Hu Yuncao, Patel M, Sabella D, et al. Mobile edge computing―A keytechnology towards 5G [J/OL]. World Class Standards, 2015 [2022-12-02].https://infotech.report/Resources/Whitepapers/f205849d-0109−4de3−8c47-be52f4e4fb27_etsi_wp11_mec_a_key_technology_towards_5g.pdf

    [4]

    Hu Junyan, Li Kenli, Liu Chubo, et al. Game-based task offloadingof multiple mobile devices with QoS in mobile edge computing systems of limited computation capacity [J/OL]. ACM Transactions on Embedded Computing Systems, 2020 [2022-12-02].https://dl.acm.org/doi/abs/10.1145/3398038

    [5]

    Alfakih T, Hassan M M, Gumaei A, et al. Task offloading and resource allocation for mobile edge computing by deep reinforcement learning based on SARSA[J]. IEEE Access, 2020, 8: 54074−54084 doi: 10.1109/ACCESS.2020.2981434

    [6]

    Choi J. Random access-based multiuser computation offloading for devices in IoT applications[J]. IEEE Internet of Things Journal, 2022, 9(21): 22034−22043 doi: 10.1109/JIOT.2022.3183033

    [7]

    Li Xiang, Fan Rongfei, Hu Han, et al. Joint task offloading and resource allocation for cooperative mobile edge computing under sequential task dependency[J]. IEEE Internet of Things Journal, 2022, 9(23): 24009−24029 doi: 10.1109/JIOT.2022.3188933

    [8]

    Zhao Gongming, Xu Hongli, Zhao Yangming, et al. [C] //Proc of the 39th IEEE Conf on Computer Communications. Piscataway, NJ: IEEE, 2020: 1997−2006

    [9]

    Fan Yinuo, Zhai Linbo, Wang Hua. Cost-efficient dependent task offloading for multiusers[J]. IEEE Access, 2019, 7: 115843−115856 doi: 10.1109/ACCESS.2019.2936208

    [10] 刘伟,黄宇成,杜薇,等. 移动边缘计算中资源受限的串行任务卸载策略[J]. 软件学报,2020,31(6):1889−1908 doi: 10.13328/j.cnki.jos.005705

    Liu Wei, Huang Yucheng, Du Wei, et al. Resource-constrained serial task offloading strategy in mobile edge computing[J]. Journal of Software, 2020, 31(6): 1889−1908 (in Chinese) doi: 10.13328/j.cnki.jos.005705

    [11]

    Sundar S, Liang Ben. Offloading dependent tasks with communication delay and deadline constraint [C] //Proc of the 37th IEEE Conf on Computer Communications. Piscataway, NJ: IEEE, 2018: 37−45

    [12]

    Cai Lingfeng, Wei Xianglin, Xing Changyou, et al. Failure-resilient DAG task scheduling in edge computing[J]. Computer Networks, 2021, 198: 108361−108377 doi: 10.1016/j.comnet.2021.108361

    [13]

    Hossain M D, Huynh L N, Sultana T, et al. Collaborative task offloading for overloaded mobile edge computing in small-cell networks [C] //Proc of the 34th Int Conf on Information Networking. Piscataway, NJ: IEEE, 2020: 717−722

    [14]

    Zhang Liping, Chai Rong, Yang Tiantian, et al. Min-max worst-case design for computation offloading in multi-user MEC system [C] //Proc of the 39th IEEE Conf on Computer Communications. Piscataway, NJ: IEEE, 2020: 1075−1080

    [15] 张海波,李虎,陈善学,等. 超密集网络中基于移动边缘计算的任务卸载和资源优化[J]. 电子与信息学报,2019,41(5):1194−1201 doi: 10.11999/JEIT180592

    Zhang Haibo, Li Hu, Chen Shanxue, et al. Task offloading and resource optimization based on mobile edge computing in ultra-dense networks[J]. Journal of Electronics and Information, 2019, 41(5): 1194−1201 (in Chinese) doi: 10.11999/JEIT180592

    [16]

    Zhang Yameng, Liu Tong, Zhu Yanmin, et al. A deep reinforcement learning approach for online computation offloading in mobile edge computing [C/OL] //Proc of the 28th ACM Int Symp on Quality of Service. New York: ACM, 2020 [2022-12-04].https://ieeexplore.ieee.org/document/9212868

    [17]

    Zhang Ni, Guo Songtao, Dong Yifan, et al. Joint task offloading and data caching in mobile edge computing networks[J]. Computer Networks, 2020, 182: 107446−107467 doi: 10.1016/j.comnet.2020.107446

    [18]

    Wang Jin, Wu Wenbing, Liao Zhuofan, et al. A probability preferred priori offloading mechanism in mobile edge computing[J]. IEEE Access, 2020, 8: 39758−39767 doi: 10.1109/ACCESS.2020.2975733

    [19]

    Mazouzi H, Achir N, Boussetta K. Elastic offloading of multitasking applications to mobile edge computing [C] //Proc of the 22nd Int Conf on Modeling, Analysis and Simulation of Wireless and Mobile Systems. New York: ACM, 2019: 307−314

    [20]

    Liu Liuyan, Tan Haisheng, Jiang S H C, et al. Dependent task placement and scheduling with function configuration in edge computing [C/OL] //Proc of the 27th ACM Int Symp on Quality of Service. New York: ACM, 2019 [2022-12-04].https://ieeexplore.ieee.org/document/9068608

    [21]

    Ko S W, Kim S J, Jung H, et al. Computation offloading and service caching for mobile edge computing under personalized service preference[J]. IEEE Transactions on Wireless Communications, 2022, 21(8): 6568−6583 doi: 10.1109/TWC.2022.3151131

    [22]

    Cplex II. V12.1: User’s manual for CPLEX[J]. International Business Machines Corporation, 2009, 46(53): 157−263

    [23]

    Barney B. Introduction to parallel computing[J]. Lawrence Livermore National Laboratory, 2010, 6(13): 10−159

    [24] 杨维,李歧强. 粒子群优化算法综述[J]. 中国工程科学,2004,6(5):87−94

    Yang Wei, Li Qiqiang. A review of particle swarm optimization algorithms[J]. Chinese Engineering Science, 2004, 6(5): 87−94 (in Chinese)

    [25] 胡旺,李志蜀. 一种更简化而高效的粒子群优化算法[J]. 软件学报,2007,18(4):861−868 doi: 10.1360/jos180861

    Hu Wang, Li Zhishu. A simpler and more effective particle swarm optimization algorithm[J]. Journal of Software, 2007, 18(4): 861−868 (in Chinese) doi: 10.1360/jos180861

    [26] 张文柱, 余静华. 移动边缘计算中基于云边端协同的任务卸载策略[J]. 计算机研究与发展, 2023, 2: 371−385

    Zhang Wenzhu, Yu Jinghua. Task offloading strategy in mobile edge computing based on cloud-edge-end cooperation [J]. Journal of Computer Research and Development, 2023, 2: 371−385(in Chinese)

    [27]

    Reiss C, Tumanov A, Ganger G R, et al. Heterogeneity and dynamicity of clouds at scale: Google trace analysis [C/OL] //Proc of the 3rd ACM Symp on Cloud Computing. New York: ACM, 2012 [2022-12-06].https://dl.acm.org/doi/abs/10.1145/2391229.2391236

    [28]

    Chi Guoxuan, Wang Yumei, Liu Xiang, et al. Latency-optimal task offloading for mobile-edge computing system in 5G heterogeneous networks [C/OL] //Proc of the 87th IEEE Vehicular Technology Conf. Piscataway, NJ: IEEE, 2018 [2022-12-04].https://ieeexplore.ieee.org/document/8417606

    [29]

    Zhang Jiao, Hu Xiping, Ning Zhaolong, et al. Energy-latency tradeoff for energy-aware offloading in mobile edge computing networks[J]. IEEE Internet of Things Journal, 2017, 5(4): 2633−2645

  • 期刊类型引用(2)

    1. 黄坚会,张江江,沈昌祥,张建标. 基于TPCM可信根的双体系可信终端计算架构. 通信学报. 2025(04): 1-14 . 百度学术
    2. 李旖旎. 基于Intel SGX的工业互联网平台数据隐私保护机制研究. 电脑编程技巧与维护. 2024(06): 70-72 . 百度学术

    其他类型引用(4)

图(9)  /  表(2)
计量
  • 文章访问数:  217
  • HTML全文浏览量:  52
  • PDF下载量:  115
  • 被引次数: 6
出版历程
  • 收稿日期:  2022-08-31
  • 修回日期:  2023-01-29
  • 网络出版日期:  2023-09-19
  • 刊出日期:  2023-11-30

目录

/

返回文章
返回