基于主题与情感联合预训练的虚假评论检测方法

张东杰1 黄龙涛1 张 荣1 薛 晖1 林俊宇2 路 瑶3

1(阿里巴巴集团 北京 100102)

2(中国科学院信息工程研究所 北京 100093)

3(廊坊职业技术学院 河北廊坊 065001)

摘 要 商品评论信息是用户线上决策的重要依据,但在利益的驱使下商家往往会通过雇佣专业的写手撰写大量虚假评论的方式来误导用户,进而达到包装自己或诋毁竞争对手的目的.这种现象会造成不正当的商业竞争和极差的用户体验.针对这一现象,我们通过情感预训练的方法对现有的虚假评论识别模型进行了改进,并提出了一种能够同时整合评论语义和情感信息的联合预训练学习方法.鉴于预训练模型强大的语义表示能力, 在联合学习框架中采用了2种预训练模型编码器分别用于抽取评论的语义和情感上下文特征,并通过联合训练的方法整合2种特征,最后使用Center Loss损失函数对模型进行优化.在多个公开数据集和多个不同任务上进行了验证实验,实验表明提出的联合模型在虚假评论检测与情感极性分析任务上都取得了目前最好的效果且具有更强的泛化能力.

关键词 虚假评论检测;预训练模型;情感分析;联合训练;Center Loss

随着互联网的发展,越来越多的线下销售行为被转移到线上.由于线上商品种类齐全、琳琅满目且处于虚拟环境,商品的评论信息已经成为用户决策过程中非常重要的影响因素.现实生活中许多商家出于盈利和打击竞品的目的,通常会雇佣一些专业写手来撰写虚假的商品评论[1].浏览了虚假评论的用户往往会对商品产生错误的预估,从而极大地影响用户的购物体验.

虚假评论检测任务由Liu等人[1]最先提出,现在已经成为了学术界的研究热点之一.虚假评论通常是由专门的作者通过仿照真实评论者的说话方式产生,在内容上有着较高的相似性,但通过深入研究后可以发现其与真实评论之间仍然存在着诸多差异.首先虚假评论往往由固定的一批人来创作,因为每个人的写作习惯和表达方式都相对固定,并且为了提高写作效率,专业写手往往会套用一些写作模板,每次撰写评论时只对文本细节进行小幅修改,这就造成了虚假评论在语义层面上往往内容的相似度较高,因此可以从语义层面上对评论文本进行建模来判定商品评论的真实性.

通常在撰写虚假评论时,作者往往具有很强的目的性,例如故意夸大或者贬低某件商品.我们通过观察发现含有比较绝对的话语和情感表达突出的商品评论往往更倾向于虚假信息[1-2].如图1所示,我们列举了一个公开虚假评论检测数据集[3]中的几个实例,它们分别是关于酒店Mike Ditka’s和Weber Grill的评论文本.从示例中我们可以看到,虚假评论中往往会存在一些明显的感情倾向(粗体的单词),而这些情感突出的表达方式也容易对用户产生误导使其不能对商品进行全面地考虑.因此评论的情感因素也是鉴别虚假评论信息的一种重要特征.

Fig. 1 Examples of fake and real reviews about restaurants of Mike Ditka’s and Weber Grill[3]
图1 关于餐厅Mike Ditka’s和Weber Grill的虚假评论和真实评论实例[3]

在不久之前,许多预训练模型[4-7]被相继提出,并在包括情感分析在内的众多NLP任务中都取得了state-of-art的效果.预训练模型通过在大量未标注的语料上采用许多无监督的学习策略,包括mask机制[1]、后续单词预测[5]和排列机制[5]等,获得了强大的语义表示能力.其复杂的和多层的模型结构也能够让这些模型更方便地对复杂的下游任务进行建模,因此预训练模型在许多相关的自然语言处理任务中都有着出色的表现.

尽管预训练模型[4-7]在通用语义层面有着出色的表示能力,但在情感相关信息的表达上仍然有待进一步的改进.这些预训练模型大多采用基于单词序列预测的目标函数,尽管这种目标函数能够捕捉单词与句法之间的语义关系,但仍然缺乏在情感层面上的信息捕获能力.针对这一情况Hao等人[8]使用预定义的情感知识库对现有的预训练模型进行了改进,提出了一种全粒度的基于情感知识增强的预训练(sentiment knowledge enhanced pre-training, SKEP)模型.该模型在现有预训练模型的基础上,采用了一种情感mask策略,并将多种情感学习目标融合到预训练过程中,从而使得模型对情感信息更为敏感且能够同时适用于多种情感分析任务.

基于虚假评论在语义和情感层面上的特点,我们提出了一种联合预训练模型来检测商品的虚假评论.鉴于预训练模型在语义和情感信息捕获上的优势,我们设置了语义和情感2种预训练编码器来分别获取评论语义和情感的上下文信息.基于2种编码器学习到的情感和语义的表达,我们设计了一种联合训练框架来识别虚假评论.我们在多个公开数据集上进行了虚假评论检测实验,结果表明:我们的模型要明显优于目前主要的传统模型和预训练模型基线,并且在跨领域和跨任务的实验中表现出了最好的泛化能力和鲁棒性.

本文的主要贡献有3个方面:

1) 首次提出在虚假评论检测中引入情感预训练模型,通过情感编码器捕获全粒度情感信息来帮助识别虚假评论;

2) 设计了一种能够同时结合语义和情感信息的联合训预训练方法,通过联合学习的方式同时整合情感和语义信息到一个模型之中;

3) 在多个公开数据集和多个不同任务上的实验结果表明,我们提出的联合模型在虚假评论检测与情感极性分析任务上都取得了目前最好的效果且具有更强的泛化能力.

1 相关工作

自从虚假商品评论的任务提出后,针对虚假评论检测的相关研究不断展开.Ott等人[9]从心理学的角度发现了评论文本的情感信息能够帮助虚假评论的识别.针对这一发现,结合情感分析的虚假评论检测方法逐渐成为了研究热点.Peng等人[10]提出通过语法分析的方式对文本语法的依赖关系进行建模来分析评论的情感极性,并结合语言模型和序列模型来识别虚假评论.Deng等人[11]提出了一种基于主题情感极性的虚假评论识别方法.他们通过观察发现绝对正面或者负面的评论大概率是虚假评论.基于这个假设他们给每一条评论定义了环境、口味、服务等主题,并单独计算各个主题的情感极性.若所有主题的极性都是一致的则为虚假评论,反之为真实评论.实验结果表明该方法具有良好的领域适应性,但准确率有待进一步提高.文献[12]提出了一种基于语言结构和情感极性的虚假评论识别方法,首先利用自然语言处理方法抽取评论文本的情感特征,然后通过遗传算法来选择最优特征,从而提高虚假评论检测的准确率;Zhao等人[13]提出了一种融合情感极性和逻辑回归的虚假评论检测方法,模型通过建模评论文本情感极性及其与大众情感的偏离程度来识别虚假评论信息,实验表明该方法效果优于仅考虑评论本身情感极性的模型.

目前的主流预训练模型有很多种,Bert[4]和RoBerta[14]是其中比较有代表性的2种.Bert通过自监督方法训练多层多Transformer编码器[15]来动态表示文本的语义特征.与传统的语言模型不同,Bert提出了一种新型的自监督训练目标被称为Masked Language Model(MLM).在训练过程中MLM方法首先随机选择15%的单词进行mask,对于这部分单词,其中80%的词被替换为[mask]标记进行屏蔽,10%的单词被随机替换为其他单词,另外10%的单词保持不变.基于MLM的学习方式和大量的无标签数据,Bert可以更好地学习文本中的语义信息.在实际应用中Bert模型采用了一种迁移学习的策略,即把训练任务分为2个步骤Pretrain和Finetune.在Pretrain过程中,Bert通过自监督的MLM方法学习通用的文本语义表达,并在特定的任务中基于标注数据做有监督的微调.通过这种方式Bert可以省去许多不必要的预训练过程,同时具有更好的可扩展性.RoBerta是Bert模型的一种改进版本,其在不改变模型结构的前提下,通过动态mask机制等多种优化方式改进Bert的训练算法,并且成为了目前最佳的预训练模型之一.在本文中我们也采用RoBerta作为语义编码器和对比基线之一.

情感分析与其他自然语言处理处理任务存在许多不同,其主要用来处理新闻文本意外的用户评论信息.情感分析涉及到不同的粒度和层面的知识,包括情感词抽取、属性词抽取、情感—属性词对抽取、不同粒度的情感极性判别等.这些情感知识被广泛应用在句子级[16-18]、评价对象级[19-20]和单词级别的情感分析[21-23]等任务中.基于以上考虑,Hao等人[8]提出将情感知识融入到预训练模型之中,从而使得模型在预训练学习过程中学习到的文本表征更加适用于情感分析任务.相对于传统的预训练模型,他们首先基于启发式的方法挖掘出了文本总的情感词、属性词和情感极性信息,在预训练过程中对这些情感信息进行mask,并将多种粒度的情感分析学习目标应用在了模型的预训练过程中,通过在这种基于情感知识增强的学习方式,该模型可以获得一种统一的多任务情感表示,从而在多种公开的情感分析任务评测集上取得了最佳的效果.在本文中,我们同样采用该模型作为情感编码器,并设置其作为对比基线之一.

2 虚假评论检测方法

本节我们主要介绍虚假评论检测的联合预训练框架,在检测过程中,模型仅利用评论的文本的内容进行虚假评论的判定.模型首先通过语义和情感编码器获得评论的上下文表示向量,然后通过联合训练的方式得到分类结果.

2.1 问题定义

虚假信息检测任务可以看做自然语言处理领域中的一项基础问题即文本二元分类问题.假设给定训练集合:

D={(Xi,Yi),i=1,2,…,n}

(1)

其中,Xi为第i条评论文本的输入序列,Yi为该评论的标签且

Yi∈{0,1} ∀i∈{1,2,…,n}

(2)

其中,当Yi=0时,表示评论为真实评论,当Yi=1时表示该评论为虚假评论.虚假评论检测的目标是学习一个映射函数

f:XY

(3)

使得映射函数f能够把评论文本X映射到正确的评论标签Y上面,这个过程可以形式化为

(4)

其中,θ为模型参数.

如图2所示,本文提出的虚假评论识别模型主要包括3个模块:语义编码器、情感编码器和联合训练模块.语义编码器通过对输入序列进行编码产生语义向量Cm,情感识别模块通过编码输入序列产生情感向量Cs,联合训练模块在训练时同时结合语义向量Cm和情感向量Cs计算模型输出,并将误差同时传递给语义编码器和情感编码器.

Fig. 2 Structure of our joint pre-training model
图2 联合预训练模型结构

2.2 语义编码器

预训练模型拥有更加复杂的结构和更多的层数,并通过利用大量无监督数据进行自监督训练,因此它们具有强大的语义特征表示能力,相对于浅层模型预训练模型更适合对语义进行建模.Bert是最具有代表性的预训练模型之一,它使用一种随机的mask机制来训练多层双向的Transform来达到捕获文本语义特征的目的,并在很多NLP任务中显示出卓越的表现.RoBerta是对Bert模型的进一步优化,是目前最佳的预训练模型之一,在此我们选择RoBerta作为我们的语义编码器.对于给定的输入文本序列:

x={x1,x2,…,xn},

(5)

xi表示输入序列中的第i个字符.我们分别获取序列中每个字符的字符向量Ei和位置向量Pi.其中Ei为字符xi的嵌入表示向量,通过词嵌入方式获得.位置向量Pi的计算为

Pi=concat([P(i,1),P(i,2),…,P(i,dmodel)]),

(6)

P(i,2j)=sin(j/10002j/dmodel),

(7)

P(i,2j+1)=cos(j/10002j/dmodel).

(8)

另外Si为分割向量,考虑到虚假信息识别是一个单句分类任务,这里我们将所有分割向量Si置为0向量.除此之外,我们在输入序列首尾增加“[CLS]”和“[SEP]”标志位用来标记输入开始和结束.我们分别将每个字的3种向量进行求和,作为最终的输入向量

(9)

最后我们将输入到堆叠的Transformer编码器和解码器中,取Transformer解码器第1步(“[CLS]”标志位)的输出作为最终的语义上下文编码向量

(10)

其中,θRoBerta为RoBerta模型的参数,我们采用公开的RoBerta预训练模型的参数对齐进行初始化.

2.3 情感编码器

使用情感编码器旨在获取评论的全粒度情感极性信息,并将其以情感上下文向量的形式提供给整个模型.在这里我们采用预训练的SKEP全粒度情感分析模型作为情感编码器.虽然SKEP模型和RoBerta模型一样属于预训练模型,不同的是SKEP在预训练过程中被mask的词主要为情感词和属性词,并且除了语言模型的损失函数之外,SKEP模型设计了多种情感任务的损失函数Lm,包括情感词损失函数Lsw、情感极性损失函数Lwp和情感—属性词对的损失函数Lap

Lm=Lsw+Lwp+Lap,

(11)

(12)

(13)

(14)

(15)

(16)

(17)

其中,W,b为可训练的参数,分别是第i个词以及第i个情感词的极性,ya为情感—属性词对的稀疏向量表示.mi用来标识情感词,若第i个词为情感词时mi=1,否则mi=0.情感词根据给定的种子情感词,通过计算评论中每个词的PMI互信息进行判断.我们默认距情感词最近且距离小于2的名词为属性词.

通过情感词mask和多种情感损失函数机制,可以使得SKEP在预训练的过程中更加专注于捕获情感信息.从而获取到全粒度的情感上下文向量.在我们的情感编码器中,与RoBerta相似,对于给定文本序列:

x={x1,x2,…,xn}.

(18)

我们以同样的方式得到每一个词的字符向量Ei和位置向量Pi以及分割向量Si,同时通过预训练的SKEP模型进行参数初始化,取SKEP模型的第1步出作为情感上下文向量.

(19)

2.4 联合训练

联合训练的目标是同时整合语义信息和情感信息来综合帮助模型更好地识别出虚假的评论.在联合训练过程中,我们分别初始化语义编码器和情感编码器的变量,并尝试了多种方式来整合语义向量和情感向量,最终选择直接拼接语义和情感上下文向量作为最终的上下文向量表示

C=concat({Cm;Cs}).

(20)

模型的分类器包括2层全连接层和一层Softmax层,最终的模型输出可以表示为

(21)

2.5 辅助损失函数

在实际中,虚假评论的数量会远远小于真实评论的数量,这就造成了在虚假评论中存在严重的类别不平衡现象.另外在跨领域的任务中类别边界越近往往会越难以区分跨领域的数据,因此我们在训练过程中需要尽可能地增加类别间决策边界距离,从而提升模型的鲁棒性.在训练过程中我们使用Center Loss作为辅助损失函数来增大模型不同类别之间的决策边界,从而使模型拥有更好的鲁棒性.我们定义模型最终的损失函数L

L=Ls+Lc,

(22)

(23)


(24)

其中,m为batch样本数量,δ为超参数约束项,Ls为Softmax损失函数,Lc为Center Loss损失函数.k×df为第i条数据类别的特征中心,k为类别数,df为特征维度,为Softmax层的输入.Center Loss的求导过程为



(25)

其中,σ为函数约束项.当输出类别为yi时,在反向传播过程中更新类别中心否则不更新.通过这种方式,可以使得每个样本的离特征中心距离的平方和最小,从而达到增加类别间决策边界距离和增加模型鲁棒性的作用.

3 实验与结果

本节我们将本文提出的联合预训练方法和现有的传统虚假评论检测模型以及预训练模型基线进行对比,并分别在多个公开数据集和虚假评论识别和情感极性分析2个任务上展开可相关实现.

3.1 评价指标

我们采用文献[2,9,24]中所采用的4种指标来衡量我们模型在虚假评论检测任务上的效果,其分别是:虚假评论检测的F1值、精确率(Precision)、召回率(Recall)、和准确率(Accuracy),针对虚假评论检测问题,这个4种指标的计算方法为

(26)

(27)

(28)

(29)

其中,TP为正确识别的虚假评论数,TN为错误识别的虚假评论数,FP为错误识别的正常评论数,FN为正确识别的正常评论数.这4种指标都是在分类任务中最常用的评价指标,不仅可以从不同角度来评价模型的效果,也方便和之前的工作进行对比.

3.2 数据集

本文在实验过程中使用文献[3,9]中发布的3个虚假评论数据集来验证模型效果,这3个数据集分别涉及旅馆(Restaurant)、酒店(Hotel)和医疗(Doctor)领域的评论数据,数据分布如表1所示:

Table 1 Dataset and Its Statistics
表1 数据集及其分布

数据集#Truker#TruthRestaurant800800Hotel200200Doctor356200

数据集中主要包括2种类别Turker和Truth,其中Turker数据为虚假评论,由Li等人[3]和Ott等人[9]在亚马逊的众包平台“MTurk”上进行人为收集,这些评论的编写者为雇佣而来的专业写手.Truth数据是由真实用户产生的数据,通过筛选在线平台中可信度高的用户获取.除此之外在旅馆数据集中存在少量专家数据“Professional”,这些数据由具备专业知识的领域专家所创作,仍属于虚假评论.在数据处理过程中,我们和文献[24]保持一致并没有采用此部分数据.在实验过程中我们采用5-fold交叉验证的方式来划分训练集和测试集,每次取其中一个fold的数据作为测试集其他数据作为训练集,最终结果取每个fold的平均表现.

3.3 实验设置和基线

在实验过程中我们大多数参数采用RoBerta和SKEP模型的默认参数配置,少数参数遵循设置:

迭代次数epoch=10,样本批次大小batch_size=8,学习率learning_rate=0.3×10-5,Transformer层数num_hidden_layers=24,隐藏层神经元数hidden_size=1024,最大序列长度max_length=512.在整个实验过程中,对于RoBerta和SKEP模型我们保持这些参数均为相同的配置.

SAGE(sparse additive generative model)[3]是一种贝叶斯生成模型,最早由Eisenstein等人[25]引入,可以看作是主题模型和广义加性模型的组合,根据语言特征来判定评论的类别归属,是一种被广泛使用的特征模型.

SWNN[26]模型是一种基于神经网络的文档表示模型,模型分别从句子和文档2个层面学习对应的文本表示和权重向量,并对其进行整合得到文档的表示向量,进而基于文档的表示向量来判定虚假品论,在领域内实验中,SWNN取得了很好的效果,在跨领域实验中,SWNN也表现出了很好的鲁棒性.

ABME(attention based muti-layer encoder)[24]模型是一种基于注意力机制的多层编码器模型.ABME基于评论首尾部分表达情感更加强烈等特点,将评论拆分为首、中、尾3部分并对其分别进行编码,在整合3种编码时文献[23]作者提高了首尾部分的权重借此来强调首尾句对模型结果的影响,结果表明ABME能取得比传统模型更好的效果Bert(large)[4]和RoBerta(large)[17]是目前比较流行的预训练语言模型,有着强大的语义捕捉能力,并且在大多数的自然语言处理领域都保持着最好的效果.RoBerta模型是对Bert的改进版本,其使用了动态mask策略和更加精细化的训练方式,使其成为了目前效果最好的预训练模型之一.

SKEP(sentiment knowledge enhanced pre-training)[11]是一种全粒度情感分析的预训练模型,SKEP与RoBerta结构类似但在预训练过程中SKEP采用采用了一种情感知识驱动的mask策略和多种情感损失函数,使其在情感分析任务上具有非常突出的表现.

3.4 领域内实验结果

在实验过程中采用5-fold交叉验证的方式来划分训练集和测试集,每次取其中一个fold的数据作为测试集其他数据作为训练集,最终结果取每个fold的平均表现,实验结果如表2所示,其中SAGE,SWNN和ABME模型的结果直接从相关论文拷贝得到.

Table 2 Main Domain Results of Spam Review Detection
表2 领域内虚假评论检测实验结果对比

模型HotelRestaurantDoctor精确率召回率F1准确率精确率召回率F1准确率精确率召回率F1准确率SAGE81.284.082.681.884.281.682.881.777.270.173.574.5SWNN84.183.383.787.088.287.685.081.082.9ABME85.586.185.785.784.188.585.885.583.686.585.084.7Bert(large)91.484.287.787.890.582.686.485.093.182.287.392.0RoBerta(large)87.397.091.991.392.984.888.687.593.981.687.392.0SKEP95.387.191.090.697.479.287.487.598.384.290.793.8Our Model92.789.791.290.697.481.989.088.597.685.791.394.2Our Model(Center Loss)93.391.392.391.397.482.689.488.897.686.891.794.6

注:黑体为最好的模型效果.

实验结果表明,我们提出的联合预训练模型在所有数据集上的准确率(Accuracy)和F1值上都取得了目前最好的水平,这充分证明了我们的联合训练方法在同时整合语义和情感信息上的优势,也说明了在虚假评论识别任务中引入情感信息可以帮助提升虚假评论检测的效果.从整体来看,预训练模型相对与浅层神经网络和特征模型都有较为明显的优势,这也证明了预训练模型具有更加强大的语义分析能力,更加适用于虚假评论检测任务.在预训练模型中,基于全粒度情感分析的预训练模型SKEP相对于基于语义的预训练模型Bert和RoBerta,具有更高的精确率(Precision),因此联合模型可以利用其这一特点来弥补语义模型缺失情感信息的问题从而提高结果的准确率.

3.5 跨领域实验结果

跨领域实验的目的是为了测试模型的鲁棒性和泛化能力.领域内实验的训练集和测试集均来自同一个领域,跨领域实验的训练集和测试集则分别来自不同领域.在我们的实验中,我们将旅馆(Restaurant)领域数据作为训练集,并且分别将酒店(Hotel)和医疗(Doctor)领域的数据作为测试集进行了跨领域的实验,实验结果如表3所示,其中SAGE,SWNN和ABME模型的结果参考相关论文[24].

Table 3 Comparative Experimental Results of Cross Domain on Spam Review Detection
表3 跨领域虚假评论检测实验结果对比

模型HotelDoctor精确率召回率F1准确率精确率召回率F1准确率SAGE78.581.374.277.855.057.372.561.7SWNN6964.485.073.361.057.386.068.8ABME71.669.477.272.960.560.065.762.3Bert(large)76.495.584.983.078.494.785.879.9RoBerta(large)82.196.088.587.579.796.187.181.8SKEP82.491.586.786.080.893.386.681.5Our Model83.395.088.888.080.095.287.482.4

注:黑体为最好的模型效果.

结果表明我们的联合学习模型在跨领域任务中依然取得了最好的效果.除此之外,预训练模型的结果都要明显优于其他模型,因为预训练模型本身就是一种迁移学习方法,所以能够更好地适应不同领域的虚假评论识别任务.另一方面,我们采用的Center Loss同样可以提高模型的鲁棒性和泛化能力,这也是我们的模型在跨领域任务上要明显优于传统模型的原因之一.

3.6 情感分析实验

为了进一步验证联合模型对情感语义的捕获能力,我们基于旅馆(Restaurant)数据集进行了情感分析实验.数据集中的情感标注仍然来自于Li等人[3],我们将数据集中的虚假评论标签换为情感极性标签并保持模型的其他设置不变重新进行了实验,实验结果如表4所示:

Table 4 Experimental Results of Sentiment Analysis
表4 情感分析实验结果对比

模型Restaurant(Sentiment)精确率召回率F1准确率Bert(large)82.286.594.394.7RoBerta(large)97.095.196.095.7SKEP98.098.098.097.9Our Model98.098.098.097.9

注:黑体为最好的模型效果.

从实验结果中可以看出,SKEP模型和我们的联合训练模型同时取得了目前最好的结果,这也说明了我们的联合模型拥有较强的情感信息捕获能力并且可以扩展运用在情感分析的相关任务上.至于SKEP和我们的联合模型结果相同的问题,经过我们的观察发现结果中的负例数量非常少,对于个别的疑难案例增加语义信息仍然不能很好地区分它们,且受限于数据集的规模.因此考虑到数据本身的原因和语义特征的限制导致联合模型的学习上限和情感模型SKEP是一致的,我们在未来的工作中会通过更大规模的数据进一步验证联合训练模型对情感信息的捕获能力.

4 总 结

本文提出了一种同时整合语义和情感信息的联合预训练学习方法来进行虚假评论检测任务.我们分别采用了预训练的语义模型和情感模型作为编码器分别抽取评论中的语义和情感信息,并通过一种联合训练框架对抽取的信息进行整合和泛化,在多个公开数据集和不同任务上的实验结果表明,我们提出的联合模型在虚假评论检测与情感极性分析任务上都取得了目前最好的效果且具有更强的泛化能力.

作者贡献声明:张东杰,负责论文主要撰写,方法设计及实验验证;黄龙涛,负责方法设计,论文整体内容修改;张荣,对实验设计提出指导意见;薛晖,为实验环境提供支持;林俊宇,稿件整体算法方案和实验设计把关,对相关工作对比提出具体指导意见;路瑶,稿件整体算法方案和实验设计把关,提供实验数据支持.其中,路瑶和林俊宇为本论文的共同通信作者.

参考文献

[1]Jindal N, Liu Bing. Opinion spam and analysis[C] //Proc of the 2008 Int Conf on Web Search and Data Mining. New York: ACM, 2008: 219-230

[2]Miao Yuqing, Ou Weijian, Liu Tonglai, et al. Detection of fake reviews based on sentiment polarity and over-sampling[J]. Application Research of Computers, 2018, 35(7): 2042-2045 (in Chinese)

(缪裕青, 欧威健, 刘同来, 等. 基于情感极性与SMOTE过采样的虚假评论识别方法[J]. 计算机应用研究, 2018, 35(7): 2042-2045)

[3]Li Jiwei, Myle O, Cardie C, et al. Towards a general rule for identifying deceptive opinion spam[C] //Proc of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). Baltimore, Maryland: Association for Computational Linguistics, 2014: 1566-1576

[4]Devlin J, Chang Mingwei, Lee K, et al. Bert: Pre-training of deep bidirectional transformers for language understanding[J]. arXiv preprint arXiv:1810.04805, 2018

[5]Peters M, Neumann M, Iyyer M, et al. Deep contextualized word representations[J]. arXiv preprint arXiv:1802.05365, 2018

[6]Radford A, Narasimhan K, Salimans T, et al. Improving language understanding by generative pre-training[J/OL]. [2020-09-21]. https://s3-us-west-2.amazonaws.com/openaia ssets/research-covers/languageunsupervised/language underst anding paper.pdf

[7]Yang Zhilin, Dai Zhihang, Yang Yiming, et al. Xlnet: Generalized autoregressive pretraining for language understanding[C] //Proc of Advances in Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc, 2019: 5753-5763

[8]Hao Tian, Gao Can, Xiao Xinyan, et al. SKEP: Sentiment knowledge enhanced pre-training for sentiment analysis[J]. arXiv preprint arXiv:2005.05635, 2020

[9]Ott M, Choi Y, Cardie C, et al. Finding deceptive opinion spam by any stretch of the imagination[J]. arXiv preprint arXiv:1107.4557, 2011

[10]Peng Qingxi, Zhong Ming. Detecting spam review through sentiment analysis[J]. Journal of Software, 2014, 9(8): 2065-2072

[11]Deng Xiaolong, Chen Runyu. Sentiment analysis based online restaurants fake reviews hype detection[C] //Proc of Asia-Pacific Web Conf. Berlin: Springer, 2014: 1-10

[12]Ren Yafeng, Yin Lan, Ji Donghong. Deceptive reviews detection based on language structure and sentiment polarity[J]. Journal of Frontiers of Cpmputer Science and Technology, 2014, 8(3): 313-320

(任亚峰, 尹兰, 姬东鸿. 基于语言结构和情感极性的虚假评论识别[J]. 计算机科学与探索, 2014, 8(3): 313-320)

[13]Zhao Jun, Wang Hong. Detection of fake reviews based on emotional orientation and logistic regression[J]. CAAI Trans on Intelligent Systems, 2016, 11(3): 336-342

[14]Liu Yinhan, Myle O, Naman G, et al. RoBerta: A robustly optimized bert pretraining approach[J]. arXiv preprint arXiv:1907.11692, 2019

[15]Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[C] //Proc of Advances in Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc, 2017: 5998-6008

[16]Taboada M, Brooke J, Tofiloski M, et al. Lexicon-based methods for sentiment analysis[J]. Computational Linguistics, 2011, 37(2): 267-307

[17]Shin B, Lee T, Choi J. Lexicon integrated CNN models with attention for sentiment analysis[J]. arXiv preprint arXiv:1610.06272, 2016

[18]Lei Zeyang, Yang Yujiu, Yang Min, et al. A multi-sentiment-resource enhanced attention network for sentiment classification[J]. arXiv preprint arXiv:1807.04990, 2018

[19]LongJiang, Mo Yu, Zhou Ming, et al. Target-dependent twitter sentiment classification[C] //Proc of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies. Association for Computational Linguistics United States, 2011: 151-160

[20]Zeng Ziqian, Zhou Wenxuan, Liu Xin, et al. A variational approach to weakly supervised document-level multi-aspect sentiment classification[J]. arXiv preprint arXiv:1904.05055, 2019

[21]Fan Chuang, Yan Hongyu, Du Jiachen, et al. A knowledge regularized hierarchical approach for emotion cause analysis[C] //Proc of the 2019 Conf on Empirical Methods in Natural Language Processing and the 9th Int Joint Conf on Natural Language Processing (EMNLP-IJCNLP). HongKong: Association for Computational Linguistics, 2019: 5618-5628

[22]Li Xin, Lam W. Deep multi-task learning for aspect term extraction with memory interaction[C] //Proc of the 2017 Conf on Empirical Methods in Natural Language Processing. Association for Computational Linguistics Copenhagen, Denmark, 2017: 2886-2892

[23]Gui Lin, Hu Jiannan, He Yulan, et al. A question answering approach to emotion cause extraction[J]. arXiv preprint arXiv:1708.05482, 2017

[24]Zeng Zhiyuan, Lu Xiaoyong, Xu Shengjian. et al. Spam review detection base on deep learning model of multi-layer attention mechanism[J]. Computer Applications and Software, 2020, 37(5): 177-182

(曾致远, 卢晓勇, 徐盛剑, 等. 基于多层注意力机制深度学习模型的虚假评论检测[J]. 计算机应用与软件, 2020, 37(5): 177-182)

[25]Eisenstein J, Ahmed A, Xing E P. Sparse additive generative models of text[C/OL] //Proc of the 28th Int Conf on Machine Learning (ICML 2011). [2020-10-04]. https://www.researchgate.net/publication/221345505_Sparse_Additive_Generative_Models_of_Text

[26]Li Luyang, Qin Bing, Ren Wenjing, Liu Ting.Document representation and feature combination for deceptive spam review detection[J/OL]. Neurocomputing, 2017, 254: 33-41 [2020-09-28]. https://doi.org/10.1016/j.neucom.2016.10.080

Fake Review Detection Based on Joint Topic and Sentiment Pre-Training Model

Zhang Dongjie1, Huang Longtao1, Zhang Rong1, Xue Hui1, Lin Junyu2, and Lu Yao3

1(Alibaba Group, Beijing 100102)

2(Institute of Information Engineering, Chinese Academy of Sciences, Beijing 100093)

3(Langfang Polytechnic Institute, Langfang, Hebei 065001)

Abstract Product review information is an important basis for users’ online decision-making. However, driven by profit, businesses often hire professional writers to write a large number of fake reviews to mislead users and achieve the purpose of packaging themselves and denigrating competitors, resulting in unfair business competition and extremely poor user experience. In response to this phenomenon, we improved the existing spam review recognition methods through Pre-training Models, and proposed a joint pre-training learning method that can simultaneously integrate the semantic and sentimental information of product reviews. In view of the powerful semantic representation capabilities of the pre-trained model, we apply two pre-trained encoders to extract the semantic and emotional features of reviews in the joint learning framework. We integrate the two types of features through joint pre-training learning method. Apart from that, we add the Center Loss function to optimize the model. We have conducted several verification experiments on multiple public data sets and multiple different tasks. The experiments show that our proposed joint model has achieved the best results and has a stronger generalization in both fake review detection and sentiment analysis tasks.

Key words fake review detection; pre-training model; sentiment analysis; joint learning framework; Center Loss

(yurui.zdj@alibaba-inc.com)

中图法分类号 TP399

收稿日期2020-10-13;修回日期:2021-03-05

基金项目廊坊市科技支撑计划项目(2020011005)

This work was supported by the Key Technology Research and Development Program of Langfang (2020011005).

Zhang Dongjie, born in 1993. Master. His main research interests include knowledge graph, text matching, and information extraction.

张东杰,1993年生.硕士.主要研究方向为知识图谱、文本匹配和信息抽取.

Huang Longtao, born in 1988. PhD. Member of CCF. Advanced algorithm expert of Alibaba Group. His main research interests include knowledge graph, natural language processing and content sercurity.

黄龙涛,1988年生.博士,CCF会员,阿里巴巴集团高级算法专家.主要研究方向为知识图谱、自然语言处理和内容安全.

Zhang Rong, born in 1980. Master. Advanced algorithm expert of Alibaba Group. His main research interests include natural language processing, machine learning, image recognition and video understanding.

张 荣,1980年生.硕士,阿里巴巴集团高级算法专家.主要研究方向为自然语言理解、机器学习、图像识别、视频理解等.

Xue Hui, born in 1981. PhD. Senior algorithm expert of Alibaba Group. His main research interests include content security, AI security.

薛 晖,1981年生.博士,阿里巴巴集团资深算法专家.主要研究方向为内容安全以及人工智能安全.

Lin Junyu, born in 1981. PhD, associate professor. Distinguished member of CCF. His main research interests include mobile network and network security, edge computing and data offloading, knowledge engineering.

林俊宇,1981年生.博士,副研究员,CCF杰出会员.主要研究方向为移动网络与网络安全、边缘计算与数据卸载、知识工程.

Lu Yao, born in 1987. MBA, lecturer. Her main research interest is administration of enterprise.

路 瑶,1987年生.工商管理硕士,讲师.主要研究方向为企业管理.