Processing math: 0%
  • 中国精品科技期刊
  • CCF推荐A类中文期刊
  • 计算领域高质量科技期刊T1类
高级检索

基于术语提示双路文本生成的方面情感三元组抽取

李银强, 蓝天, 刘瑶, 向飛阳, 孙丽纯, 杜知涵, 刘峤

李银强, 蓝天, 刘瑶, 向飛阳, 孙丽纯, 杜知涵, 刘峤. 基于术语提示双路文本生成的方面情感三元组抽取[J]. 计算机研究与发展. DOI: 10.7544/issn1000-1239.202330838
引用本文: 李银强, 蓝天, 刘瑶, 向飛阳, 孙丽纯, 杜知涵, 刘峤. 基于术语提示双路文本生成的方面情感三元组抽取[J]. 计算机研究与发展. DOI: 10.7544/issn1000-1239.202330838
Li Yinqiang, Lan Tian, Liu Yao, Xiang Feiyang, Sun Lichun, Du Zhihan, Liu Qiao. Term-Prompted and Dual-Path Text Generation for Aspect Sentiment Triplet Extraction[J]. Journal of Computer Research and Development. DOI: 10.7544/issn1000-1239.202330838
Citation: Li Yinqiang, Lan Tian, Liu Yao, Xiang Feiyang, Sun Lichun, Du Zhihan, Liu Qiao. Term-Prompted and Dual-Path Text Generation for Aspect Sentiment Triplet Extraction[J]. Journal of Computer Research and Development. DOI: 10.7544/issn1000-1239.202330838
李银强, 蓝天, 刘瑶, 向飛阳, 孙丽纯, 杜知涵, 刘峤. 基于术语提示双路文本生成的方面情感三元组抽取[J]. 计算机研究与发展. CSTR: 32373.14.issn1000-1239.202330838
引用本文: 李银强, 蓝天, 刘瑶, 向飛阳, 孙丽纯, 杜知涵, 刘峤. 基于术语提示双路文本生成的方面情感三元组抽取[J]. 计算机研究与发展. CSTR: 32373.14.issn1000-1239.202330838
Li Yinqiang, Lan Tian, Liu Yao, Xiang Feiyang, Sun Lichun, Du Zhihan, Liu Qiao. Term-Prompted and Dual-Path Text Generation for Aspect Sentiment Triplet Extraction[J]. Journal of Computer Research and Development. CSTR: 32373.14.issn1000-1239.202330838
Citation: Li Yinqiang, Lan Tian, Liu Yao, Xiang Feiyang, Sun Lichun, Du Zhihan, Liu Qiao. Term-Prompted and Dual-Path Text Generation for Aspect Sentiment Triplet Extraction[J]. Journal of Computer Research and Development. CSTR: 32373.14.issn1000-1239.202330838

基于术语提示双路文本生成的方面情感三元组抽取

详细信息
    作者简介:

    李银强: 1998年生. 硕士研究生. 主要研究方向为方面级情感分析、机器学习

    蓝天: 1977年生. 博士,研究员,硕士生导师. 主要研究方向为图像处理、语音增强、自然语言处理

    刘瑶: 1978年生. 博士,副教授,CCF会员. 主要研究方向为网络安全、社交网络、数据挖掘、机器学习

    向飛阳: 1995年生. 硕士研究生. 主要研究方向为可持续学习、机器学习

    孙丽纯: 1999年生. 硕士研究生. 主要研究方向为立场检测、机器学习

    杜知涵: 1999年生. 硕士研究生. 主要研究方向为情感分析、机器学习

    刘峤: 1974年生. 博士,教授,博士生导师. 主要研究方向为自然语言处理、机器学习、数据挖掘

    通讯作者:

    刘瑶(liuyao@uestc.edu.cn

  • 中图分类号: TP391

Term-Prompted and Dual-Path Text Generation for Aspect Sentiment Triplet Extraction

More Information
    Author Bio:

    Li Yinqiang: born in 1998. Master candidate. His main research interests include aspect-based sentiment analysis and machine learning

    Lan Tian: born in 1977. PhD, professor, master supervisor. His main research interests include image processing, speech enhancement, and natural language processing

    Liu Yao: born in 1978. PhD, associate professor. Member of CCF. Her main research interests include network security, social network data mining, and machine learning

    Xiang Feiyang: born in 1995. Master candidate. His main research interests include continual learning and machine learning

    Sun Lichun: born in 1999. Master candidate. Her main research interests include stance detection and machine learning

    Du Zhihan: born in 1999. Master candidate. His main research interests include sentiment analysis and machine learning

    Liu Qiao: born in 1974. PhD, professor, PhD supervisor. His main research interests include natural language processing, machine learning, and data mining

  • 摘要:

    方面情感三元组抽取(aspect sentiment triplet extraction,ASTE)是方面级情感分析(aspect based sentiment analysis,ABSA)中具有挑战性的子任务之一,旨在从文本中抽取方面术语、观点术语和情感极性三元组. 近期基于生成式的抽取方法取得了出色的表现,这些方法通过顺序串联目标三元组来实现自回归式三元组生成. 然而,这种串联方法可能导致无序三元组之间存在顺序依赖,从而在解码过程中引入错误累积. 为解决这个问题,提出了基于术语提示双路文本生成(term-prompted and dual-path text generation,TePDuP)的方法. 该方法首先利用机器阅读理解(machine reading comprehension,MRC)实现方面术语和观点术语的并行化抽取,然后将它们作为提示前缀来引导条件式三元组的生成,形成双路文本生成框架. 同时,在训练阶段引入计划采样的方法来修正MRC抽取错误所带来的偏差. 为进一步提高性能,引入生成概率将方面术语和观点术语引导的结果合并,以增强模型的鲁棒性. 基于ASTE-DATA-V2数据集的实验结果表明,提出的方法是有效的且明显优于其他基线模型,并给出具体案例分析,证明该方法一定程度上解决了前述问题.

    Abstract:

    Aspect sentiment triplet extraction (ASTE) is a challenging subtask within aspect-based sentiment analysis. It aims to extract triplets consisting of aspect terms, opinion terms, and sentiment polarities from texts. In the recent past, generative extraction techniques have demonstrated remarkable efficacy through the sequential concatenation of target triplets, thereby enabling the autoregressive generation of triplets. However, this concatenation method may lead to sequential dependencies among unrelated triplets, introducing error accumulation during decoding. To address this issue, we propose a term-prompted and dual-path text generation (TePDuP) method. This method first utilizes machine reading comprehension (MRC) to extract aspect and opinion term in parallel, and then uses them as prompt prefixes to guide conditional triplet generation, forming a dual-path text generation framework. Meanwhile, during the training phase, we incorporate scheduled sampling as a corrective measure to mitigate the bias stemming from MRC extraction. Furthermore, in order to enhance performance to an even greater extent, we incorporate generation probabilities to merge outcomes guided by aspect and opinion terms, thereby augmenting the resilience of the model. Experimental results on the ASTE-DATA-V2 dataset show that the proposed method is effective and significantly outperforms other baseline models, and provide case studies to demonstrate that the method solves the aforementioned problem to some extent.

  • 人脑位于复杂神经生物学系统的中心,大脑区域之间的相互作用是神经发育和脑疾病分析的关键驱动因素[1]. 深入了解脑网络的功能和结构有助于理解脑疾病的发病机制和治疗方法的开发,对于辅助医生诊断脑疾病具有重要意义[2]. 特别是目前脑疾病的诊断主要基于简单的症状观察和临床医生的经验,误诊率较高. 因此,如何借助脑网络辅助医生精准识别脑疾病,已经成为领域内的研究热点[3-5].

    动态功能连接(dynamic functional connections,dFCs)通过使用短时间的静息态功能磁共振成像(resting state functional magnetic resonance imaging,rs-fMRI)扫描片段构建,反映了脑功能连接(functional connections,FCs)在几秒钟到几分钟时间尺度上的时间波动. rs-fMRI作为一种常用的非侵入性成像技术,可以通过测量血流动力学变化来反映大脑的区域活动强度,而FCs,即不同脑区之间的相关性,可以反映脑区之间的活动一致性. dFCs通过计算连续窗口短时段的局部相关性,提供了观察动态神经活动的机会. 这类动态神经活动可以很好地指示不同群体之间的大脑差异. 例如,Zhang等人[6]提出了时间变异性测量来描述动态脑网络中节点之间的活动一致性,并发现这种测量可以识别精神障碍中一些疾病的特异性变化. Yin等人[7]从dFCs中提取了功能灵活性测量,并使用这种测量方法来评估婴儿早期的认知灵活性. 同时,dFCs也被用来研究精神分裂症患者大规模网络的动态相互作用,证明显著性网络和默认模式网络之间的大脑动态失调是精神分裂症的有力特征[8].

    目前深度学习方法已经成功应用于脑网络分析工作,其能够更好地捕捉和建模非线性动态关系,从而更准确地描述脑网络的复杂性. 例如,Kawahara等人[9]提出了3种卷积滤波器(即边到边、边到节点、节点到图),用于学习脑网络的表示. Jie等人[10]定义了一种新颖的加权相关核wc-kernel来测量大脑区域的相关性,并且构建了一个基于wc-kernel的wck-CNN网络来学习分层特征进行脑疾病诊断. Li等人[11]利用fMRI的拓扑和功能信息设计了新颖的ROI感知图卷积层Ra-GConv,提出了一种用于分析功能磁共振图像并发现神经生物标志物的图神经网络BrainGNN. Zhu等人[12]提出了一种双重注意力多实例深度学习网络DA-MIDL,用于阿尔茨海默病及其前驱阶段轻度认知障碍的早期诊断. Ji等人[13]提出了一种具有3种稀疏策略的卷积神经网络SCNN对dFC进行分类并且可以识别异常的大脑功能连接. Li等人[14]从自适应dFC中提取时间和空间特征,通过深度特征融合方法将时间和空间特征进一步映射为综合融合特征以诊断脑疾病.

    然而,目前已有的针对动态脑网络的研究从未考虑到动态脑网络中的不确定性. 由于大脑活动是高度复杂和动态变化的,动态功能连接单一的时间窗可能无法充分捕捉到大脑的多样性和复杂性,通常需要联合多个时间窗的信息. 然而,单一时间窗的数据可能是不完整的,存在缺失值或噪声[15],无法保证数据的质量,导致每个时间窗的可信程度不一致[16]. 传统方法通常忽略这类不确定性,导致高可信度信息被低可信度信息湮没,影响模型最终的判别能力. 研究标签的依赖关系可以有效分析神经网络模型的不确定性[17]. He等人[18]提出一种标签相关交叉熵损失函数,直接将标签相关性引入到多重二元交叉熵损失函数中,充分发现标签依赖关系以完成多标签分类和处理不确定性. 为了处理动态脑网络每个时间窗的不确定性信息,本文使用Dempster合成规则在证据层面处理不同时间窗的冲突,充分融合来自多个时间窗的信息[19]. Dempster合成规则在处理不确定性问题中具有独特的优势[20]. 例如,孙怀江等人[21]提出了一种相关证据合成方法来表示证据理论中相关性的起源,处理不确定性信息. Fang等人[22]基于Dempster合成规则提出新的合成规则,然后形成了一个具有广义概率语言信息的多标准决策过程. 罗浩等人[23]使用Dempster合成规则进行信息融合,有效消除多关系网络耦合信息和传递机制对节点重要性评测造成的影响.

    基于上述讨论,本文提出基于动态证据神经网络(dynamic evidence neural networks,DE-NNs)的脑网络分析算法. 为了充分获取动态功能连接每个时间窗的特征,本文将每个时间窗视为一个视图,设计了一种多视图证据获取模块,利用边缘到边缘(edge-to-edge,E2E)卷积滤波器、边缘到节点(edge-to-node,E2N)卷积滤波器和节点到图(node-to-graph,N2G)卷积滤波器,充分提取dFCs数据每个窗口的特征图,再通过全连接层和激活层分别获得每个窗口的证据. 考虑动态功能连接在时间尺度上的时序性,本文设计了一种动态证据融合机制来构造动态信任函数,使用证据合成规则融合来自多个窗口的证据.

    本文的主要贡献有3点:

    1) 设计了一种在多视图学习框架下的动态脑网络特征获取模块,将动态脑网络的每个时间窗作为一个视图进行多视图特征提取,以此完整获取dFCs每个窗口的证据.

    2) 在动态脑网络分析中引入证据理论处理不确定性信息,设计了一种动态证据融合机制. 将动态脑网络的多窗口信息与证据理论进行结合,准确估计每个窗口的不确定性. 并针对dFCs数据的时序性构造动态信任函数,在多窗口分类的决策层进行多视图动态证据融合,提高模型分类的可信度和鲁棒性.

    3) 本文方法分别在华西医院、生物医学卓越研究中心(COBRE)和湘雅医院提供的精神分裂症数据集上进行了验证,并且与目前主流分类方法进行比较,展现了较好的性能.

    深度神经网络比浅层神经网络具有更大的模型容量和更强的泛化能力,针对单个任务在大规模注释数据库上训练的深度模型实现了出色的性能,远远超出了传统算法甚至人类的能力[24].

    随着深度学习技术的发展,神经网络已广泛应用于脑网络分析工作,并在包括脑疾病辅助诊断的许多应用中取得了显著成功. 例如,Lin等人[25]认为卷积神经网络在使用rs-fMRI数据对患有精神分裂症等精神障碍的个体分类方面表现优越,并构建了具有2个卷积层的3D-CNN框架SSPNet. Yan等人[26]首次尝试将多尺度RNN模型直接应用于fMRI时间过程以进行精神分裂症分类,并展示了基于多尺度RNN的神经影像学分类的潜力. Huang等人[27]构建了一个具有注意力机制的深度学习框架ST-DAG-Att,以使用功能磁共振成像预测认知和疾病.

    传统的深度学习方法通常使用单个视图或数据源的信息进行训练和预测;而多视图学习则通过同时考虑多个视图来丰富模型的表示能力,其基本思想是将多个视图或数据源的特征进行融合,从而获取更全面、更准确的特征表示.

    多视图学习的方法在不断发展,涌现了各种各样的算法和模型,如多视图聚类[28-30]、多视图半监督学习[31]和多视图深度学习[32]等. He等人[33]将3D-CNN与多视图学习进行结合,并设计一个视图池化层来融合多视图信息,以解决移动物体识别问题. 梁新彦等人[34]提出一种多粒度融合的超多视图分类方法,利用融合算子对多个视图间的关系进行建模,提升了多视图分类方法的性能. Zhou等人[35]为了更好地探索来自不同视图的数据之间的相关性,提出了一种通用的多视图分类模型,用于多视图医学图像的计算机辅助诊断,所提出的模型自动从多视图数据中提取基本信息,以生成一系列“良好且多样化”的伪视图进行多视图融合. Ding等人[36]提出了一种区域感知融合网络RFNet,得益于区域感知融合模块RFM,RFNet能够自适应且有效地利用多模态数据的不同组合来进行肿瘤分割. RNN提供了一种理解复杂时间变化和依赖性的方法,LSTM使用输入门、输出门和遗忘门控制信息流,GRU包含重置门和更新门2个门控单元,且参数更少[37]. He等人[38]使用减法门代替乘法门,获得更灵活的内部激活函数选择. Han等人[39]引入稀疏门控来捕获每个模态特征的信息变化,并使用真实类别概率来评估每个模态的分类置信度,从而推导出了一种基于动态信息量估计策略的透明融合算法. Liang等人[40]提出了一种新的基于解释关联的MMC融合方法,从特征空间中提取的关联信息和高阶信息同时被编码到一个新的特征空间中,以使用显式方式训练MMC模型.

    证据理论是一种关于信任函数的理论,最早由Dempster提出,是贝叶斯理论对主观概率的推广[41-42],逐步发展成一个通用框架来模拟认知不确定性[43]. 相比贝叶斯神经网络通过权重参数的多次随机采样间接获得不确定性,证据理论直接对不确定性进行建模. 证据理论允许来自不同来源的置信度与各种融合算子相结合,以获得融合所有可用证据得到的最终置信度[44].

    当面对来自不同来源的不确定性信息时,证据理论合成规则试图融合它们的共同部分,并通过归一化因素忽略相互冲突的信任程度. Han等人[45]提出了一种新颖的多视图分类算法,联合利用多个视图,整合来自每个视图的证据来提高分类的可靠性和鲁棒性,并通过在证据级别动态集成不同视图,为多视图学习提供了新的范例. Xu等人[46]提出了一种深度证据融合方法,充分利用置信度分配和不确定性估计来组合多模态医学图像的信息. Liu等人[47]从意见聚合的角度重新审视多视图学习,从而设计出一种可信的多视图深度学习方法,采用证据理论将意见的不确定性表述为来自不同数据源的学习结果,并通过证据积累来衡量意见聚合的不确定性作为多视图学习结果. Xu等人[48]提出了一种证据多视图深度学习方法EMDL,为了在证据级别对多视图数据中的一致和互补关系进行显式建模,构建了一个退化层来学习从公共证据到视图特定证据的映射以进行证据融合.

    综上,目前虽然已有相关学者开展脑网络深度学习算法方面的研究,但是均存在未关注多个窗口的不确定信息和无法有效利用多窗口信息等问题. 本文首先引入证据理论处理动态脑网络的不确定性信息. 据目前为止,本文所提方法是在脑网络分析中引入证据理论处理不确定信息. 其次,引入多视图学习框架构建动态脑网络特征获取模块,对dFCs进行多视图特征提取. 相比使用单一窗口信息,多视图特征可更全面地描述大脑的动态活动信息. 最后,本文充分考虑动态脑网络数据之间的时序关系,基于证据理论设计了一种动态证据融合机制,从而构造动态信任函数,在决策层进行多视图证据融合.

    本文提出的DE-NNs方法主要包括2个模块:动态证据学习(具体见2.1节)和动态证据融合(具体见2.2节). 对于一个具有N个样本的动态脑网络功能连接数据集\{ {{\boldsymbol {X}}_n}\} _{n = 1}^N,其中{\boldsymbol X} = ({{\boldsymbol x}^v})_{v = 1}^V,即每个样本拥有V个动态脑网络时间窗口. 令 {{\boldsymbol {A}}^{\text{d}}} \in {{\mathbb {R}}^{{\varOmega } \times {\varOmega }}} 是FCs的单一邻接矩阵,{{\boldsymbol {A}}^{\text{d}}} = ({{\boldsymbol {A}}^{\text{d}}}(1),{{\boldsymbol {A}}^{\text{d}}}(2), … ,{{\boldsymbol {A}}^{\text{d}}}(V))为dFCs的连接矩阵,其中\varOmega 为脑网络节点的个数( {\varOmega } = 90 ),则{\boldsymbol X} = {{\boldsymbol {A}}^{\text{d}}}. 本文的工作是将动态脑网络V个时间窗口的信息进行证据融合以识别脑疾病. 在数学上,它可以被描述为一个映射: S:\{ {{\boldsymbol X}}\} \to y ,其中y表示受试者(即患者或正常对照组)的标签.

    为了获取dFCs数据每个窗口的证据,本文使用边缘到边缘(E2E)、边缘到节点(E2N)、节点到图(N2G)卷积滤波器来分层提取脑网络的特征,下面给出定义.

    定义1. 边缘到边缘(E2E)卷积滤波器. E2E卷积滤波器被用来从原始邻接矩阵中提取边缘特征. 与用于图像数据的标准卷积滤波器类似,该滤波器加权组合局部信息(即连接强度)来学习边缘特征,E2E可以定义为:

    H_{i,j}^{(n)} = ReLU\left(\displaystyle\sum_{k = 1}^{\varOmega } {(r_k^n{{A}}_{i,k}^{\text{d}} + c_k^n{{A}}_{k,j}^{\text{d}}) + {b^n}} \right), (1)

    其中 {r^n} \in {{\mathbb {R}}^{\varOmega }} {c^n} \in {{\mathbb {R}}^{\varOmega }}是学习权重,{b^n}是学习偏差.

    定义2. 边缘到节点(E2N)卷积滤波器. E2N卷积滤波器用于将边缘特征聚合为节点特征. 这个滤波器相当于一个1维空间卷积层,E2N可以定义为:

    a_i^{(n)} = ReLU\left(\displaystyle\sum_{m = 1}^M {\displaystyle\sum_{k = 1}^{\varOmega } {r_k^{m,n}H_{i,k}^m + {b^n}} } \right), (2)

    其中r_k^{m,n} \in {\mathbb R^{\varOmega }}是学习权重,(m,n)表示每层的每一对输入和输出特征.

    定义3. 节点到图(N2G)卷积滤波器. N2G卷积滤波器用于将节点特征转化为图形特征. N2G滤波器是一个1维空间卷积,在E2N滤波器之后应用. 这个滤波器可以通过从图中的所有节点获得单一响应来减少特征图的空间维度,N2G可以定义为:

    {g^{(n)}} = ReLU\left(\displaystyle\sum_{m = 1}^M {\displaystyle\sum_{i = 1}^{\varOmega } {w_i^{m,n}a_i^m + {b^n}} } \right), (3)

    其中 w_i^{m,n} \in {{\mathbb R}^{\varOmega }} 是学习权重.

    E2E卷积滤波器能够通过加权组合各个节点间的连接强度识别动态脑网络中的边缘特征. E2N卷积滤波器将边缘特征聚合为节点特征. N2G卷积滤波器通过将相邻边的响应总结为一组节点响应来将节点特征转化为图形特征. E2E,E2N,N2G卷积滤波器能够分层提取脑网络层次特征如边缘特征、节点特征、网络特征,通过顺序使用E2E,E2N,N2G卷积滤波器可以降低特征映射的维度,有效学习脑网络的特征.

    动态脑网络数据集\{ {{{\boldsymbol X}}_n}\} _{n = 1}^N中的一个样本 {{\boldsymbol X}} = ( {{\boldsymbol x}^v}) _{v = 1}^V ,如图1所示.

    图  1  多视图学习框架下的动态证据学习模块
    Figure  1.  Dynamic evidence learning modules under multi-view learning framework

    首先,使用E2E卷积滤波器将{{\boldsymbol X}}与16通道的{\varOmega } \times 1 \times 1卷积核进行卷积操作,得到维度为16 \times 1 \times{\varOmega } \times V的特征图 {\boldsymbol {dF}}{{\boldsymbol C}_1} \in \{{\mathbb R}_v^{16 \times 1 \times {\varOmega }}\}_{v = 1}^V ,再对其进行Repeat操作,得到维度为16 \times {\varOmega } \times {\varOmega } \times V的特征图 {\boldsymbol {dF}}{\boldsymbol C}'_1 \in \{{\mathbb R}_v^{16 \times {\varOmega } \times {\varOmega }}\}_{v = 1}^V . 并将{{\boldsymbol X}}与16通道的1 \times {\varOmega } \times 1卷积核进行卷积操作,得到维度为16 \times {\varOmega } \times 1 \times V的特征图 {\boldsymbol {dF}}{{\boldsymbol C}_2} \in \{{\mathbb R}_v^{16 \times {\varOmega } \times 1}\}_{v = 1}^V ,再对其进行Repeat操作,得到维度为16 \times {\varOmega } \times {\varOmega } \times V的特征图 {\boldsymbol {dF}}{\boldsymbol C}'_2 \in \{{\mathbb R}_v^{16 \times {\varOmega } \times {\varOmega }}\}_{v = 1}^V . 将 {\boldsymbol {dF}}{\boldsymbol C}'_1 {\boldsymbol {dF}}{\boldsymbol C}'_2 进行Add操作得到维度为 16 \times {\varOmega } \times {\varOmega } \times V 的特征图 {\boldsymbol {dF}}{{\boldsymbol C}_{{\text{E2E}}}} \in \{{\mathbb R}_v^{16 \times {\varOmega } \times {\varOmega }}\}_{v = 1}^V .

    其次,使用E2N卷积滤波器将E2E的输出 \boldsymbol {dF}{\boldsymbol C_{{\text{E2E}}}}\in \{{\mathbb R}_v^{16 \times {\varOmega } \times {\varOmega }}\}_{v = 1}^V 与32通道的卷积核进行卷积操作,得到维度为32 \times 1 \times {\varOmega } \times V的特征图 {\boldsymbol {dF}}{{\boldsymbol C}'_{{\text{E2N}}}} \in \{{\mathbb R}_v^{32 \times 1 \times {\varOmega }}\}_{v = 1}^V ,将 \boldsymbol {dF}{\boldsymbol C'_{{\text{E2N}}}} 进行Squeeze操作得到维度为32 \times {\varOmega } \times V的特征图 {\boldsymbol {dF}}{{\boldsymbol C}_{{\text{E2N}}}} \in \{{\mathbb R}_v^{32 \times {\varOmega }}\}_{v = 1}^V .

    然后,使用N2G卷积滤波器将E2N的输出 {\boldsymbol {dF}}{{\boldsymbol C}_{{\text{E2N}}}} \in \{{\mathbb R}_v^{32 \times {\varOmega }}\}_{v = 1}^V 与64通道的{\varOmega } \times 1卷积核进行卷积操作,得到维度为64 \times 1 \times V的特征图 {\boldsymbol {dF}}{{\boldsymbol C}'_{{\text{N2G}}}} \in \{{\mathbb R}_v^{64 \times 1}\}_{v = 1}^V ,将 \boldsymbol {dF}{\boldsymbol C'_{{\text{N2G}}}} 进行Squeeze操作得到维度为64 \times V的特征图 {\boldsymbol {dF}}{{\boldsymbol C}_{{\text{N2G}}}} \in \{{\mathbb R}_v^{64}\}_{v = 1}^V .

    最后,将经过3个卷积滤波器得到的特征图 {\boldsymbol {dF}}{{\boldsymbol C}_{{\text{N2G}}}} \in \{{\mathbb R}_v^{64}\}_{v = 1}^V 的每个窗口分别通过全连接层和Softplus激活层即可得到样本 {{\boldsymbol X}} = ({{\boldsymbol x}^v})_{v = 1}^V 的动态脑网络证据e = \{ e_1^v,e_2^v, … ,e_K^v\} _{v = 1}^V,其中K为分类任务的类别数量,本文进行脑疾病的分类任务,此任务为二分类任务,故K = 2,即患者和正常2个类别. 算法1的行⑤~⑧中对每个视图进行处理的时间复杂度为O(V),则算法时间复杂度为O(n \times V),而V是一个常数,表示视图总数,故算法时间复杂度为O(n),算法空间复杂度为O(n),算法流程如算法1所示.

    算法1. 动态证据学习.

    输入:动态脑网络数据\{ {{{\boldsymbol X}}_n}\} _{n = 1}^N

    输出:动态脑网络证据\displaystyle\sum_{n = 1}^N {{e_n} = \{ e_1^v,e_2^v, … ,e_K^v\} _{v = 1}^V} .

    ① for n = 1:N do

    ② 使用E2E卷积滤波器对{{{\boldsymbol X}}_n}进行卷积操作,  得到特征图 {\boldsymbol {dF}}{{\boldsymbol C}_{{\text{E2E}}}} \in \{{\mathbb R}_v^{16 \times {\varOmega } \times {\varOmega }}\}_{v = 1}^V

    ③ 使用E2N卷积滤波器对 {\boldsymbol {dF}}{{\boldsymbol C}_{{\text{E2E}}}} 进行卷积操  作,得到特征图 \boldsymbol {dF}{\boldsymbol C_{{\text{E2N}}}} \in \{{\mathbb R}_v^{32 \times {\varOmega }}\}_{v = 1}^V

    ④ 使用N2G卷积滤波器对 \boldsymbol {dF}{\boldsymbol C_{{\text{E2N}}}} 进行卷积操  作,得到特征图 {\boldsymbol {dF}}{{\boldsymbol C}_{{\text{N2G}}}} \in \{{\mathbb R}_v^{64}\}_{v = 1}^V

    ⑤ for v = 1:V do

    ⑥  将特征图 \boldsymbol {dF}{\boldsymbol C_{{\text{N2G}}}} 的第v个视图依次通过   全连接层;

    ⑦  通过Softplus激活层后得到动态脑网络   证据e = \{ e_1^v,e_2^v, … ,e_K^v\}

    ⑧ end for

    ⑨ 得到动态脑网络数据V个视图的动态证据  e = \{ e_1^v,e_2^v, … ,e_K^v\} _{v = 1}^V

    ⑩ end for

    ⑪ return \displaystyle\sum_{n = 1}^N {{e_n} = \{ e_1^v,e_2^v, … ,e_K^v\} _{v = 1}^V} .

    传统的卷积神经网络在分类任务中通常使用softmax作为分类层,使用softmax可以获得每个类的概率,但是会忽略网络预测结果的置信程度,这可能会导致预测结果的可信度降低[45-48]. 本文将神经网络的输出直接作为证据,因此不使用softmax作为分类层,同时希望得到的证据为非负数,所以增加Softplus激活层以获得非负输出. 然后使用证据理论将证据形式化为意见,以明确表达深度学习结果的不确定性程度,动态证据神经网络DE-NNs的整体流程图如图2所示.

    图  2  动态证据神经网络模型
    Figure  2.  The model of dynamic evidence neural networks

    证据是指从输入中收集的用于支持分类的指标,并且与Dirichlet分布的浓度参数密切相关,Dirichlet分布是一种概率分布,常用于描述多元变量的分布,它是多项分布的共轭先验分布[49],其参数是一个长度为K的概率向量,通常表示为\boldsymbol \alpha = ({\alpha _1},{\alpha _2}, … ,{\alpha _K}). 对于K分类问题,主观逻辑[44]根据证据 e = \{ e_1^v,e_2^v, … ,e_K^v\} _{v = 1}^V为每个类标签分配一个置信度,并为整个框架分配一个总体不确定性质量. 相应地,对于第v个窗口,K + 1个质量值都是非负的,且它们的总和是1.

    {u^v} + \displaystyle\sum_{k = 1}^K {b_k^v} = 1, (4)

    其中{u^v} \geqslant 0b_k^v \geqslant 0分别表示总体不确定性和第k类的置信度.

    主观逻辑将每个窗口的证据与Dirichlet分布参数联系起来. 具体而言,第v个窗口的Dirichlet分布参数{\boldsymbol \alpha ^v} = (\alpha _1^v,\alpha _2^v, … ,\alpha _K^v)是由该窗口的证据{\boldsymbol e^v} = (e_1^v,e_2^v, … ,e_K^v)导出的,即 {\alpha _k} = {e_k} + 1 ,所以置信度b_k^v和不确定性{u^v}的计算公式为:

    b_k^v = \dfrac{{e_k^v}}{{{S^v}}} = \dfrac{{\alpha _k^v - 1}}{{{S^v}}}, (5)
    {u^v} = \dfrac{K}{{{S^v}}}, (6)

    其中{S^v} 是Dirichlet强度 {S^v} = \displaystyle\sum_{i = 1}^K {(e_i^v + 1)} = \displaystyle\sum_{i = 1}^K {\alpha _i^v} . 从式(5)和式(6)可以看出,对于第v个窗口,某个类别的证据越多、置信度越高,相应的不确定性越低,从而预测的结果也就越可信.

    同时,考虑到dFCs数据具有时序结构,大脑状态会持续很长时间,某段时间内大脑网络的连接模式相对一致,在不同的时间段内可能会发生变化,而划分不同窗口可以帮助捕捉这种时序特征[50]. 通过在不同时间窗口内分析大脑网络的连接模式,可以揭示大脑活动的时序变化,从而更全面地理解大脑的动态特性. 并且独立地计算每个窗口的置信度会导致信息丢失等问题,所以根据每个窗口的不确定性{u^v}对置信度b_k^v进行如下修改:

    b_k^v = \left\{ \begin{aligned} & \beta \times {a_1}\dfrac{{e_k^v}}{{{S^v}}} + {a_2}\dfrac{{e_k^{v + 1}}}{{{S^{v + 1}}}}{\text{, }}\;\; v = 1, \\ & {a_1}\dfrac{{e_k^{v - 1}}}{{{S^{v - 1}}}} + \beta \times {a_2}\dfrac{{e_k^v}}{{{S^v}}} + {a_3}\dfrac{{e_k^{v + 1}}}{{{S^{v + 1}}}}{\text{, }}\;\; 1< v < V, \\ & {a_1}\dfrac{{e_k^{v - 1}}}{{{S^{v - 1}}}} + \beta \times {a_2}\dfrac{{e_k^v}}{{{S^v}}}{\text{, }}\;\;v = V, \\ \end{aligned} \right. (7)

    其中当v = 1时,第1个窗口联系第2个窗口,所以 {a_1} = \dfrac{{{u_1}}}{{\beta \times {u_1} + {u_2}}} {a_2} = \dfrac{{{u_2}}}{{\beta \times {u_1} + {u_2}}} . 当1 < v < V时,第v个窗口联系窗口v - 1和窗口v + 1,所以 {a_1} = \dfrac{{{u_{v - 1}}}}{{{u_{v - 1}} + \beta \times {u_v} + {u_{v + 1}}}} {a_2} = \dfrac{{{u_v}}}{{{u_{v - 1}} + \beta \times {u_v} + {u_{v + 1}}}} {a_3} = \dfrac{{{u_{v + 1}}}}{{{u_{v - 1}} + \beta \times {u_v} + {u_{v + 1}}}} . 当v = V时,第V个窗口联系第V - 1个窗口,所以{a_1} = \dfrac{{{u_{v - 1}}}}{{{u_{v - 1}} + \beta \times {u_v}}}{a_2} = \dfrac{{{u_v}}}{{{u_{v - 1}} + \beta \times {u_v}}}. 其中 {u}_{i} = -\dfrac{\text{ln}\left({u}^{{}_{i}}\right)}{{u}^{{}_{i}}} 确保了在联合其他窗口过程中,不确定性较低的窗口会获得更高的权重. 参数\beta=3 确保了在联合其他窗口过程中,避免由于不确定性较高而丢失当前窗口的信息,具体在3.4.7节中讨论.

    确定每个窗口的置信度后,为dFCs构造动态信任函数\{ {D^v}\} _{v = 1}^V,其中{D^v} = \left\{ {\{ b_k^v\} _{k = 1}^K\left. {,{u^v}} \right\}} \right.. 为了获得最终的D = \left\{ {\left. {\{ {b_k}\} _{k = 1}^K,u} \right\}} \right.,引入一种用于处理不确定性和冲突的证据融合方法. Dempster-Shafer证据理论通过引入置信度的概念来表示和处理不确定以及冲突的证据,每个不同的证据来源都与一个置信度相关联.

    定义4. Dempster合成规则. 对2个窗口的信任函数{D^1} = \left\{ {\{ b_k^1\} _{k = 1}^K\left. {,{u^1}} \right\}} \right.{D^2} = \left\{ {\{ b_k^2\} _{k = 1}^K\left. {,{u^2}} \right\}} \right.进行证据融合以得到联合信任函数D = \left\{ {\left. {\{ {b_k}\} _{k = 1}^K,u} \right\}} \right.,即D = {D^1} \oplus {D^2}. 其中{b^k}u计算公式如下:

    {b_k} = \dfrac{1}{{1 - C}}\left( {b_k^1b_k^2 + \displaystyle\sum_{i \ne j} {b_k^i{u^j}} } \right), (8)
    u = \dfrac{1}{{1 - C}}{u^1}{u^2}, (9)

    其中C = \displaystyle\sum_{i \ne j} {b_i^1b_j^2} .

    Dempster合成规则通过计算证据项之间的冲突度量来确定最终的置信度分配. 从定义4可看出当2个窗口的不确定性都低时,预测结果具有高置信度,相反不确定性都高时,预测结果置信度较低.

    将定义4的Dempster合成规则应用到具有V个窗口的dFCs数据. 首先利用Dempster合成规则处理第1个窗口的信任函数{D^1} = \left\{ {\{ b_k^1\} _{k = 1}^K\left. {,{u^1}} \right\}} \right.和第2个窗口的信任函数{D^2} = \left\{ {\{ b_k^2\} _{k = 1}^K\left. {,{u^2}} \right\}} \right.,得到联合信任函数D = \left\{ {\left. {\{ {b_k}\} _{k = 1}^K,u} \right\}} \right.,然后再次利用Dempster合成规则将D与第3个窗口的信任函数{D^3}进行融合,得到新的联合信任函数D,以此类推,可以获得V个窗口的dFCs数据的联合信任函数. 上述动态脑网络证据融合过程可以归纳为:

    D = {D^1} \oplus {D^2} \oplus … \oplus {D^V}. (10)

    对于一个具有V个视图的样本 {{\boldsymbol X}} = ({{\boldsymbol x}^v})_{v = 1}^V ,通过式(8)和式(9)得到多视图融合后的每个类别的置信度{b_k}和总体不确定性u,从而可以计算出第k个类别的联合证据为 {e_k} = {b_k} \times \dfrac{K}{u} ,其中证据最多的类别为模型最终输出结果y',即{\text{max}}\{ {e_1},{e_2}, … ,{e_K}\} 为最终诊断结果y'.

    对于传统的基于神经网络的分类器,通常采用交叉熵损失:

    {\ell _{{\text{ce}}}} = - \displaystyle\sum_{k = 1}^K {y_{ik}}{ {\text{lb}}({p_{ik}})} , (11)

    其中{p_{ik}}是第i个样本的类别k的预测概率. 对于本文模型,给定通过证据网络获得的第i个样本的证据可以得到Dirichlet分布的参数{\alpha _i}并形成多项式意见Dir({P_i}|{\alpha _i}),其中{P_i}是单纯形上的类别分配概率. 对 {\ell _{{\text{ce}}}} 进行简单修改后,得到调整后的交叉熵损失:

    {\ell _{{\text{ace}}}}({\alpha _i}) = \displaystyle\sum_{k = 1}^K {{y_{ik}}(\psi ({S_i}) - \psi ({\alpha _{ik}}))} , (12)

    其中\psi ( \cdot )是digamma函数. {\ell _{{\text{ace}}}}({\alpha _i}) 是由 {\alpha _i} 确定的单纯形的交叉熵损失函数的积分.

    上述损失函数确保每个样本的正确标签比其他类别产生更多的证据,同时为了保证错误标签产生的证据更少,引入KL散度项为Dirichlet分布添加先验作为正则项:

    \ell _{{\text{KL}}}^v({\alpha ^v}) = {D_{{\text{KL}}}}[Dir({p^v}|{\tilde \alpha ^v})||Dir({p^v}|[1, … ,1])], (13)

    其中{\tilde \alpha ^v} = y + (1 - y) \odot {\alpha ^v}是Dirichlet分布的调整参数,可以避免将真实类的证据惩罚为0.

    因此,对于样本i在经过动态证据提取模块分别获得每个窗口的证据后,可以获得Dirichlet分布的参数 {\alpha _i} ,为了针对每个窗口的特定信息进行优化而综合每个窗口的损失 \ell _{\text{m}}^v = {\ell _{{\text{ace}}}}(\alpha _i^v) + \lambda \ell _{{\text{KL}}}^v(\alpha _i^v) ,所有样本的单一窗口总体损失为

    {\ell _{\text{m}}} = \displaystyle\sum_{i = 1}^N {\displaystyle\sum_{v = 1}^V {\left[ {{\ell _{{\text{ace}}}}(\alpha _i^v) + \lambda \ell _{{\text{KL}}}^v(\alpha _i^v)} \right]} } , (14)

    其中\lambda > 0是平衡因子. 在训练过程中逐渐增大\lambda 的值,以防止网络在训练初期过于关注KL散度,造成对参数空间没有很好地探索而导致网络输出一个平坦的均匀分布.

    根据式(7)得到的置信度构造动态信任函数,使用Dempster合成规则得到证据融合后的联合信任函数D = \left\{ {\left. {\{ {b_k}\} _{k = 1}^K,u} \right\}} \right.,从而联合证据 {e_k} = {b_k} \times \dfrac{K}{u} ,所以样本i的Dirichlet分布参数 {\alpha _i} = {e_i} + 1 . 为了优化整体的融合性能,需要考虑动态证据融合的损失,所有样本总体损失为

    {\ell _{\text{d}}} = \displaystyle\sum_{i = 1}^N {\left[ {{\ell _{{\text{ace}}}}({\alpha _i}) + \lambda {\ell _{{\text{KL}}}}({\alpha _i})} \right]} . (15)

    为了更好地利用不同窗口之间的互补性和信息交互,确保所有观点能够形成合理的意见,从而提高整体的分类准确率,本文使用具有以下总体损失函数的多任务策略:

    \ell = {\ell _{\text{m}}} + {\ell _{\text{d}}}. (16)

    算法2展示了本文所提动态证据神经网络DE-NNs的具体流程. 首先,将动态脑网络数据\{ {{{\boldsymbol X}}_n}\} _{n = 1}^N作为输入,包含N个样本,每个样本具有V个窗口. 其次,对于每个样本 {{\boldsymbol X}} = ({{\boldsymbol x}^v})_{v = 1}^V ,DE-NNs将动态脑网络数据依次通过3个卷积滤波器得到特征图 {\boldsymbol {dF}}{{\boldsymbol C}_{{\text{N2G}}}} \in \{{\mathbb R}_v^{64}\}_{v = 1}^V . 然后,将 \boldsymbol {dF}{\boldsymbol C_{{\text{N2G}}}} 经过全连接层和激活层得到每个窗口的动态脑网络证据e = \{ e_1^v,e_2^v, … ,e_K^v\} _{v = 1}^V并导出Dirichlet分布参数,调整置信度b_k^v后构造动态信任函数{D^v}以获得联合信任函数D并更新Dirichlet分布参数. 最后,使用式(16)作为总体损失对网络进行训练,得到最终预测结果y'. 算法2的行⑥的时间复杂度为O(V),行⑦~⑩的时间复杂度为O(V),所以DE-NNs算法的时间复杂度为O(n \times 2V),而V是常数,表示视图总数,所以DE-NNs算法总体时间复杂度为O(n),算法空间复杂度为O(n).

    算法2. DE-NNs算法.

    输入:动态脑网络数据\{ {{{\boldsymbol X}}_n}\} _{n = 1}^N

    输出:预测的脑疾病诊断结果y'.

    ① while epoch in epochs do

    ② for n = 1:N do

    ③  使用E2E对{{{\boldsymbol X}}_n}进行卷积操作,得到特征   图 {\boldsymbol {dF}}{{\boldsymbol C}_{{\text{E2E}}}} \in \{{\mathbb R}_v^{16 \times {\varOmega } \times {\varOmega }}\}_{v = 1}^V

    ④  使用E2N对 \boldsymbol {dF}{\boldsymbol C_{{\text{E2E}}}} 进行卷积操作,得到   特征图 {\boldsymbol {dF}}{{\boldsymbol C}_{{\text{E2N}}}} \in \{{\mathbb R}_v^{32 \times {\varOmega }}\}_{v = 1}^V

    ⑤  使用N2G对 \boldsymbol {dF}{\boldsymbol C_{{\text{E2N}}}} 进行卷积操作,得到   特征图 {\boldsymbol {dF}}{{\boldsymbol C}_{{\text{N2G}}}} \in \{{\mathbb R}_v^{64}\}_{v = 1}^V

    ⑥  将 \boldsymbol {dF}{\boldsymbol C_{{\text{N2G}}}} 的第v个视图依次通过全连接   层和激活层,得到动态脑网络证据   e = \{ e_1^v,e_2^v, … ,e_K^v\} _{v = 1}^V

    ⑦  for v = 1:V do

    ⑧   {\alpha ^v} \leftarrow {e^v} + 1

    ⑨    \ell _{\text{m}}^v \leftarrow {\ell _{{\text{ace}}}}(\alpha _i^v) + \lambda \ell _{{\text{KL}}}^v(\alpha _i^v)

    ⑩  end for

    ⑪  通过式(14)获得损失和 {\ell _{\text{m}}}

    ⑫  通过式(7)调整置信度b_k^v

    ⑬  构造动态信任函数\{ {D^v}\} _{v = 1}^V

    ⑭  {D^v} \leftarrow \left\{ {\{ b_k^v\} _{k = 1}^K\left. {,{u^v}} \right\}} \right.

    ⑮  D \leftarrow \left\{ {\left. {\{ {b_k}\} _{k = 1}^K,u} \right\}} \right.

    ⑯  {\ell _{\text{d}}} \leftarrow \displaystyle\sum_{i = 1}^N {\left[ {{\ell _{{\text{ace}}}}({\alpha _i}) + \lambda {\ell _{{\text{KL}}}}({\alpha _i})} \right]}

    ⑰  \ell \leftarrow {\ell _{\text{m}}} + {\ell _{\text{d}}}

    ⑱ end for

    ⑲ end while

    ⑳ return y'.

    本文选择了3个精神分裂症数据集的原始rs-fMRI数据. 华西医院数据集Huaxi包含103例精神分裂症(Schizophrenia)患者和114例正常对照组(normal control,NC). 生物医学卓越研究中心数据集COBRE包含53例患者和67例正常对照组. 湘雅医院数据集Xiangya包含83例患者和60例正常对照组. 所有受试者不存在其他精神障碍疾病、无吸毒史,且无临床上显著的头部外伤. 在扫描华西医院和湘雅医院数据集中的图像时,要求参与者闭上眼睛但不要睡着. 对于所有要预处理的数据集,放弃前10卷以确保扫描仪的稳定和受试者对环境的适应性. 数据由3.0T西门子Trio磁共振扫描仪采集. rs-fMRI扫描参数如下:重复时间TR为2 000 ms,时间间隔为30 ms,翻转角度为90°,体素大小为3 \times 3 \times 3\;{\text{m}}{{\text{m}}^3}.

    上述数据集使用DPARSF工具箱2.0版[51]中执行的SPM8对所有rs-fMRI数据进行图像预处理. 初始图像经过切片时间采集校正和重新对齐,归一化到EPI模板. 时间序列经过去趋势化处理,并通过线性回归移除协变量(包括6个头部运动参数、脑脊液信号和白质信号),最后进行0.01~0.08 Hz带通滤波. 生成的卷有240个时间点,并使用自动解剖标记(AAL)地图集分成90个感兴趣的区域(ROI). 这些时间序列提供了关于大脑活动的信息. Leonardi等人[52]提供了窗口长度的选择和影响的实用指南,窗口长度太短会造成虚假波动,窗口长度过长会导致无法准确识别变化. 根据经验,我们将TR设置为2 000 ms,生成的卷有240个时间点,滑动窗口的长度为30个TR,重叠设置为7个TR,最终得到10个窗口[53]. 所以3个数据集保留10个时间窗口,即拥有10个视图.

    本文基于Pytorch框架实现,通过随机梯度下降优化算法进行训练. 学习率设置为0.000 05,Huaxi数据集的batch size设置为120,COBRE和Xiangya数据集的batch size设置为50,epoch设置为5 000,dropout设置为0.2.

    在实验中采用5折交叉验证法评价动态证据神经网络DE-NNs的性能,所有呈现的结果均为5次运行的平均值和标准差.

    本文采用的实验平台为PC(13th Gen Intel® CoreTM i9-13900K@3.00 GHz, NVIDIA® GeForce RTX™ 4090, RAM为64 GB),Windows11操作系统.

    对比预测标签和真实标签可以得到混淆矩阵中的真正例N_{\rm TP} 、假负例N_{\rm FN} 、假正例N_{\rm FP} 和真负例N_{\rm TN} ,如表1所示. N_{\rm TP} 表示正确分类为健康的参与者,N_{\rm FN} 表示错误分类为患病的健康参与者,N_{\rm FP} 表示错误分类为健康的患病参与者,N_{\rm TN} 表示正确分类为患病的参与者.

    表  1  混淆矩阵
    Table  1.  Confusion Matrix
    真实值 预测为正类(健康) 预测为负类(患病)
    标签为正类(健康) {N_{{\rm TP} }} {N_{\rm FN}}
    标签为负类(患病) {N_{{\rm FP} }} {N_{\rm TN}}
    下载: 导出CSV 
    | 显示表格

    为了测试动态证据神经网络DE-NNs的性能,选用准确率(accuracy,ACC)、灵敏度(sensitivity,SEN)、特异性(specificity,SPE)、阳性预测值(positive predictive value,PPV)、阴性预测值(negative predictive value,NPV)、F1分数(F1 score,F1)来评估模型的分类性能. 其中ACC表示将受试者分类正确的概率,S EN表示将健康的人分类正确的概率,S PE表示将患者分类正确的概率,PPV表示预测为健康的人的样本中真正为健康的人所占的比例,NPV表示预测为患者的样本中真正为患者所占的比例,F1表示模型的综合分类性能. 各评价指标公式为:

    ACC = \dfrac{{{N_{{\rm TP} }} + {N_{\rm TN}}}}{{{N_{\rm TP}} + {N_{{\rm TN} }} + {N_{{\rm FP} }} + {N_{\rm FN}}}}, (17)
    S EN = \dfrac{{{N_{\rm TP}}}}{{{N_{{\rm TP} }} + {N_{{\rm FN} }}}}, (18)
    S PE = \dfrac{{{N_{\rm TN}}}}{{{N_{{\rm TN} }} + {N_{{\rm FP} }}}}, (19)
    PPV = \dfrac{{{N_{{\text{TP}}}}}}{{{N_{{\text{TP}}}} + {N_{{\rm FP} }}}}, (20)
    NPV = \dfrac{{{N_{\rm TN}}}}{{{N_{{\rm TN} }} + {N_{{\text{FN}}}}}}, (21)
    F1 = 2 \times \dfrac{{PPV \times S EN}}{{PPV + S EN}}. (22)

    本文首先将DE-NNs与经典机器学习分类算法KNN[54]进行比较. 然后将DE-NNs与2种深度多视图算法MVCNN[55]和GVCNN[56]进行比较. 此外,本文还将DE-NNs与3种先进的多视图算法进行比较,即基于多组学整合的生物医学数据分类MORONET[57]、可信多视图分类TMC[58]和基于动态融合的可信多模态分类MMDynamics[39]. 对以上对比方法简要总结如下:

    1) KNN[54]. 该方法是经典的机器学习分类算法,通过对训练数据中的K近邻投票来进行标签预测.

    2) MVCNN[55]. 该方法将来自多个视图的信息组合成一个单一且紧凑的形状描述符,提供更好的识别性能.

    3) GVCNN[56]. 该方法引入分组模块来估计每个视图的内容区分度,在此基础上根据不同的区分程度将所有视图划分为不同的组,充分利用视图之间固有的层次相关性和可分辨性.

    4) MORONET[57]. 该方法将GCN和VCDN结合起来,在生物医学数据分类应用中进行有效的多组学集成的方法. 具体而言,首先利用每个组学特定的GCN产生的初始预测来获取跨组学发现张量,然后跨组学发现张量被重塑为一个向量,最后转发给VCDN进行最终的标签预测.

    5) TMC[58]. 该方法在证据层面整合不同的视图,联合利用多视图信息来促进分类的可靠性和稳健性.

    6) MMDynamics[39]. 该方法引入了一个稀疏的门控来捕捉每个模态内特征的信息变化,并采用真实类概率来评估每个模态的分类置信度. 对不同样本的特征和模式变化进行联合建模,动态地评估不同样本的特征级和模态级的信息量,从而整合多种模态.

    本文将DE-NNs与现有的先进分类算法在Huaxi、COBRE、Xiangya数据集上进行对比实验. 从表2中可以看出,DE-NNs的分类性能相比常规机器学习算法和深度多视图算法有明显提升,并且相较于目前较为流行的多视图分类算法也具有很大优势. 具体而言,DE-NNs在Huaxi、COBRE、Xiangya数据集上的ACC分别为86.05个百分点,85.86个百分点,83.56个百分点,至少提高了1.99个百分点,2.07个百分点,3.28个百分点,优于所有对比方法. 相比分类性能较好的算法TMC分别提高了1.99个百分点,2.75个百分点,4.11个百分点,相比MMDynamics分别提高了5.03个百分点,2.07个百分点,3.28个百分点.

    表  2  Huaxi,COBRE,Xiangya数据集对比实验结果
    Table  2.  Comparative Experimental Results of Huaxi, COBRE, Xiangya Datasets %
    数据集 方法 ACC S EN S PE PPV NPV F1
    Huaxi KNN 75.35±1.29 70.44±3.01 81.00±4.00 81.03±2.66 70.45±1.53 75.34±1.40
    MVCNN 75.46±1.13 76.35±5.52 74.45±5.73 77.59±2.04 73.19±3.09 76.94±1.28
    GVCNN 79.34±1.26 79.79±12.69 78.79±10.12 81.28±3.12 77.42±5.53 80.46±2.27
    MORONET 75.43±2.80 84.49±1.53 65.29±26.46 73.23±4.53 79.05±0.06 78.42±0.56
    TMC 84.06±2.50 92.50±5.98 74.45±5.73 80.50±2.21 89.77±9.69 86.07±1.86
    MMDynamics 81.02±0.47 75.77±9.78 87.04±6.50 87.12±3.61 75.88±2.92 80.98±1.59
    DE-NNs(本文) 86.05±0.16 95.79±0.04 74.78±1.27 81.45±0.22 93.90±0.03 88.04±0.06
    COBRE KNN 75.45±0.82 84.82±7.02 61.25±10.89 76.59±0.88 73.28±1.28 80.48±2.16
    MVCNN 77.75±8.31 85.42±38.93 67.44±24.68 77.77±6.91 78.63±33.27 81.28±10.49
    GVCNN 80.64±2.77 86.82±16.65 72.44±15.01 81.37±9.19 79.84±38.42 83.88±2.02
    MORONET 76.61±1.12 89.57±1.30 58.63±6.40 75.02±0.65 80.16±7.31 81.65±0.38
    TMC 83.11±0.89 95.07±2.47 67.00±2.67 79.46±2.19 91.18±3.80 86.56±1.32
    MMDynamics 83.79±1.16 92.18±5.41 72.67±9.55 81.76±1.11 87.63±10.89 86.63±0.66
    DE-NNs(本文) 85.86±0.79 95.96±0.17 71.31±2.81 82.74±3.10 92.48±0.47 88.85±1.19
    Xiangya KNN 73.05±3.08 55.82±15.87 84.14±9.89 69.78±7.72 74.66±4.63 61.88±4.61
    MVCNN 74.88±0.86 72.22±12.34 76.80±8.96 69.26±3.73 79.42±2.49 70.62±1.68
    GVCNN 76.04±3.40 66.83±20.80 82.41±11.04 71.87±21.33 78.74±10.39 69.05±5.49
    MORONET 75.34±0.98 57.00±2.27 87.23±2.93 74.34±6.14 75.80±3.12 64.47±0.01
    TMC 79.45±0.04 65.05±2.40 88.71±0.19 78.81±1.30 79.71±0.50 71.27±1.95
    MMDynamics 80.28±1.23 72.97±5.65 84.94±0.34 75.59±0.52 83.08±3.28 74.24±2.02
    DE-NNs(本文) 83.56±0.78 74.48±3.68 89.51±1.62 82.08±5.49 84.38±3.38 78.05±0.91
    注:黑体数值表示最优值. “±”前后的数值分别表示平均值和标准差.
    下载: 导出CSV 
    | 显示表格

    此外,DE-NNs在Huaxi、COBRE、Xiangya数据集上的S ENNPV指标表现出色. 其中DE-NNs的S EN分别为95.79%,95.96%,74.48%,相比其他方法至少分别提高了3.29个百分点,0.89个百分点,1.51个百分点,NPV分别为93.90%,92.48%,84.38%,相比其他方法至少分别提高了4.13个百分点,1.3个百分点,1.3个百分点. 由于S ENS PE是一对相对的概念,在某些情况下,提高S EN可能导致S PE下降,反之亦然. 同理,通常提高NPV可能导致PPV下降,所以在ACC一定的情况下,DE-NNs的S PEPPV指标仍有待提升. 考虑到此种现象的发生,本文不仅使用ACC来评估模型的综合性能,还使用F1对本文方法与对比算法进行比较以评估综合性能,从而给出更全面的模型表现. DE-NNs的F1在3个数据集上分别为88.04%,88.85%,78.05%,高于所有对比方法,至少分别提高了1.97个百分点,2.22个百分点,3.81个百分点.

    上述实验结果表明DE-NNs在脑疾病诊断任务中具有较好的性能,优于现有先进方法.

    为了验证DE-NNs各个模块的有效性,我们设计了相应的消融实验,分别测试了6种不使用相关模块的方法:不使用E2E卷积滤波器(NoE2E)、不使用E2N卷积滤波器(NoE2N)、不使用N2G卷积滤波器(NoN2G)、不使用损失函数{\ell _{\text{m}}}(NoLossm)、不使用损失函数{\ell _{\text{d}}}(NoLossd)、不使用动态证据融合模块(NoFusion).

    消融实验结果如图3所示,横坐标表示F1,纵坐标表示ACC,越靠近右上角表示算法性能越好,反之,越靠近左下角则表示算法性能越差,也能反映相关模块对DE-NNs更加重要. 在3个数据集上,NoN2G方法和NoE2N方法的F1和ACC相比其他方法较低,由此可见N2G和E2N卷积滤波器在特征提取阶段发挥了重要作用,同时NoE2E方法的表现也比较差. 而顺序使用E2E,E2N,N2G卷积滤波器的DE-NNs方法性能最好,此现象说明顺序使用E2E,E2N,N2G卷积滤波器可以充分提取脑网络特征,提高模型性能.

    图  3  消融实验结果
    Figure  3.  Results of ablation study

    修改损失函数的方法NoLossm和NoLossd在3个数据集上的实验结果表明我们设计的2种损失函数均起到了提高模型性能的作用,而将这2种损失函数组合使用的DE-NNs方法性能最好,此现象说明这2种损失函数缺一不可,都对模型的优化起到了重要作用.

    不使用动态证据融合的NoFusion方法在3个数据集上的性能表现均差于使用动态证据融合模块的DE-NNs方法,此现象说明我们设计的动态证据融合模块可以有效处理不同视图间的不确定性信息,提高模型分类结果的可信度,更多关于动态融合有效性的实验分析在3.4.5节中讨论.

    为了证明引入多视图方法可以提高分类性能,本文将DE-NNs和4个比较方法使用最佳单视图(Best-View)方法进行比较. 如图4所示,所有方法在3个数据集上使用多视图融合策略Fusion时的ACC显著优于最佳单视图Best-View方法且方差较小. 其中在Huaxi数据集上,5种方法分别高出9.80个百分点,2.34个百分点,2.74个百分点,7.89个百分点,4.73个百分点. 在COBRE数据集上分别高出3.18个百分点,2.20个百分点,3.82个百分点,2.20个百分点,4.09个百分点. 在Xiangya数据集上分别高出5.47个百分点,3.66个百分点,3.20个百分点,2.75个百分点,3.67个百分点.

    图  4  多视图有效性实验结果
    Figure  4.  Experimental results of multi-view efficiency

    因此可以证明在本文所用3个精神分裂症数据集上,使用多视图方法能够有效综合多个视图的信息,从而获得更全面、更丰富的特征表达,提高分类性能.

    为了验证DE-NNs的动态证据融合机制的有效性,本文将DE-NNs与4种不使用动态融合的方法在3个数据集上进行比较. 其中BrainNetCNN[9]不使用多视图方法,提取完特征后直接进行分类. Best-View在BrainNetCNN的基础上挑选最佳视图进行分类. Cat将多视图特征向量进行拼接融合. Add将多视图特征向量进行相加融合.

    实验结果如表3所示,在Huaxi数据集上,DE-NNs的ACCF1相比其他方法至少分别高出7.52个百分点和8.04个百分点. 除了DE-NNs,Best-View方法的ACCF1略高于Add方法,优于其他方法. 在COBRE数据集上DE-NNs的ACCF1相比其他方法至少分别高出3.28个百分点和3.72个百分点. 除了DE-NNs,Add方法和Cat方法的分类性能也比较优秀,优于其他方法. 在Xiangya数据集上,DE-NNs的ACCF1相比其他方法至少分别高出5.03个百分点和6.05个百分点. 除了DE-NNs,其余4种不使用动态融合的方法,分类性能相似并且均低于DE-NNs.

    表  3  Huaxi,COBRE,Xiangya数据集动态融合有效性实验结果
    Table  3.  Experimental Results of Dynamic Fusion Efficiency on Huaxi, COBRE, Xiangya Datasets %
    数据集 方法 ACC S EN S PE PPV NPV F1
    Huaxi BrainNetCNN 74.68±0.07 68.42±3.83 81.87±4.35 81.39±1.60 69.23±0.13 74.31±0.69
    Best-View 78.53±1.28 80.56±10.65 76.17±2.22 79.52±0.39 77.49±4.75 80.00±2.77
    Cat 74.69±1.54 68.59±11.42 81.70±6.12 81.19±3.76 69.48±3.31 74.29±3.45
    Add 77.94±1.13 75.34±14.93 80.88±16.63 82.08±5.88 74.24±4.30 78.45±2.23
    DE-NNs(本文) 86.05±0.16 95.79±0.04 74.78±1.27 81.45±0.22 93.90±0.03 88.04±0.06
    COBRE BrainNetCNN 80.00±0.82 92.14±0.06 63.26±4.93 77.52±1.86 85.38±0.59 84.19±0.76
    Best-View 76.82±0.82 82.44±10.68 68.42±6.68 79.57±1.96 72.50±9.38 80.93±2.13
    Cat 81.82±2.06 88.43±0.32 72.33±2.52 82.08±7.11 81.22±0.55 85.13±2.89
    Add 82.58±0.92 82.21±1.57 86.50±2.62 90.50±2.28 73.08±14.88 85.03±0.41
    DE-NNs(本文) 85.86±0.79 95.96±0.17 71.31±2.81 82.74±3.10 92.48±0.47 88.85±1.19
    Xiangya BrainNetCNN 77.63±2.59 73.24±7.76 80.44±14.38 70.98±9.83 82.31±2.43 72.00±1.96
    Best-View 78.53±1.58 69.76±3.60 84.17±9.29 74.23±10.40 81.14±1.68 71.85±0.81
    Cat 76.25±1.61 67.34±13.03 81.92±3.19 70.68±5.10 79.56±2.45 68.93±6.64
    Add 77.62±0.97 71.01±7.31 81.97±1.21 71.80±2.96 81.34±5.57 71.34±0.88
    DE-NNs(本文) 83.56±0.78 74.48±3.68 89.51±1.62 82.08±5.49 84.38±3.38 78.05±0.91
    注:黑体数值表示最优值. “±”前后的数值分别表示平均值和标准差.
    下载: 导出CSV 
    | 显示表格

    上述实验结果表明使用传统的多视图学习方法Add和Cat可以在某些数据集上提升分类性能,但是使用最佳视图Best-View方法的分类性能甚至可以高于Add和Cat. 因此简单的多视图学习方法并不能满足实际应用中分类的需要,而DE-NNs利用动态证据融合机制可以有效融合来自多个视图的信息,提高分类性能.

    为了进一步验证动态证据融合机制的有效性,本文以Huaxi数据集中的一个样本为例(n = 195),在证据层面进行分析. 各个窗口的不确定性和产生的证据以及最终融合后的不确定性和动态证据如表4所示,证据最多的类别即为最终预测结果. 在DE-NNs中,动态脑网络窗口的不确定性越低,其预测结果的可信程度越高. 窗口3,7,8,9,10的不确定性较低,分别为0.06,0.07,0.15,0.05,0.13,其预测结果可信程度比其他窗口高. 在动态脑网络分析工作中,由于每个窗口的数据质量不一致,不能够保证每个窗口的预测结果都正确. 对于不确定性最低的5个窗口,只有窗口3的预测结果错误. 经过动态证据融合后得到的不确定性显著低于所有窗口且预测结果正确. 相比于使用单一窗口预测方法,DE-NNs可以避免类似窗口3不确定性低但预测结果错误,以及第6个窗口不确定性高但预测结果正确的情况.

    表  4  多窗口的不确定性和证据
    Table  4.  Uncertainty and Evidence for Multiple Windows
    窗口 不确定性 负类证据 正类证据
    1 0.22 2.09×10–7 7.29
    2 0.27 5.29 1.07×10–4
    3 0.06 3.10×101 9.86×10–16
    4 0.38 1.1 2.15
    5 0.33 0.78 3.26
    6 0.67 0.18 0.83
    7 0.07 6.08×10–7 2.84×101
    8 0.15 1.09×101 2.03×10–5
    9 0.05 1.87×10–13 3.77×101
    10 0.13 0.01 1.28×101
    融合后 2.27×10–6 9.56×103 9.19×105
    注:黑体数值表示最优值.
    下载: 导出CSV 
    | 显示表格

    以上的结果可以说明本文提出的动态证据融合机制可以有效利用动态功能连接不同窗口的证据,处理不确定性,提高分类性能.

    本文所提方法DE-NNs可根据反向传播信息发掘与疾病相关的动态功能连接,其结果如图5所示. 图5中矩阵颜色较亮的点表示连接强度较高,反之颜色较暗区域则表示连接强度较低. 为了更为明显地展示连接强度较高的判别连接,本文将矩阵中连接强度最高的判别连接在脑图中可视化,其中节点表示对应脑区,连线表示节点间的连接关系.

    图  5  动态脑网络可解释性
    Figure  5.  Interpretability of dynamic brain networks

    图5中可以发现有2个有趣的现象. 其一,动态脑网络的10个窗口的判别脑区均与丘脑相关(THA_L和THA_R). 丘脑位于第3脑室的两侧,是人类感觉的高级中枢,并有着信号传递的中继作用. 目前大量文献证明精神分裂疾病会导致丘脑区域出现异常. 例如,Byne等人[59]表明丘脑为精神分裂症中受损的多个功能回路提供节点连接. Andreasen等人[60]在精神分裂症患者的丘脑和邻近蛋白质中观察到特定的区域异常. 以上结果证明本文方法捕捉到了与疾病相关的区域.

    其二,对比不确定性(u)最低和最高的2个视图(v),v=9和v=6,可以发现不确定性低的视图涉及的脑区多数集中在前额叶区域,而发现不确定性高的视图多数集中在顶叶附近. 动态脑网络窗口的不确定性越低,其预测结果的可信程度越高. 前额叶位于脑的前半部,与整个脑部都有深入的神经联系,它被认为是大脑进行精神活动的主要部分,因而相比枕叶与精神分裂症的联系更为密切. Perlstein等人[61]发现精神分裂症患者的工作记忆功能障碍是由背外侧前额叶皮层的紊乱引起的. Tan等人[62]认为,精神分裂症患者的前额叶皮层的层次结构可能会受到损害. 以上的结果均可以说明本文方法所获取的不确定性度量值的有效性.

    在本节中,对参数\beta 的取值进行讨论,分析\beta 的选择对DE-NNs分类性能的影响. 如果\beta 取值过小,可能会忽略当前窗口的特征,而取值过大则会过分关注当前窗口的特征,所以为了有效联合其他窗口,需要对参数\beta 的大小进行分析. 如图6所示,参数\beta =3时,DE-NNs在3个数据集上的分类性能均为最佳,ACC分别为86.05%,85.86%,83.56%,至少提高了0.47个百分点,1.82个百分点,1.36个百分点,并且方差较小,模型相对稳定. 所以为了确保有效利用其他窗口的特征,提高DE-NNs的分类性能,将\beta 设置为3.

    图  6  Huaxi,COBRE,Xiangya数据集参数分析
    Figure  6.  Parameter analysis on Huaxi, COBRE, Xiangya dataset

    针对脑网络分析中存在的不确定性和无法有效利用多窗口信息等问题,本文提出了基于动态证据神经网络的脑网络分析算法DE-NNs. 首先,本文引入多视图学习框架,设计了一种在多视图学习框架下的动态脑网络特征获取模块,利用E2E,E2N,N2G卷积滤波器充分提取dFCs每个窗口的证据. 其次,本文工作在动态脑网络分析中引入证据理论处理不确定性信息,设计了一种动态证据融合机制,在多视图分类的决策层进行动态证据融合,使模型能够提高分类的可信度和鲁棒性. 最后,在3个精神分裂症数据集上进行验证,实验结果表明DE-NNs可以有效分析脑网络,并提高分类性能. 我们会进一步研究在动态脑网络信息融合过程中产生的冲突,处理不确定性信息和提高分类性能,并研究窗口数量对分类性能的影响.

    作者贡献声明:侯涛提出了算法的核心思想,设计了实验方案,完成实验并撰写论文;丁卫平提出了整个算法的框架并对整个算法思想进行完善,以及修改论文;黄嘉爽、鞠恒荣完善了算法的思路,指导论文写作并修改论文.

  • 图  1   ASTE任务示例

    Figure  1.   An example of ASTE task

    图  2   Seq2Seq对不同三元组顺序的训练和预测

    注:SOS是start of sentence缩略词;EOS是end of sentence缩略词

    Figure  2.   Training and testing of Seq2Seq for different triplet orders

    图  3   TePDuP架构

    Figure  3.   Framwork of TePDuP

    图  4   错误三元组之后的后续生成的三元组的精确率

    Figure  4.   The precision of subsequently generated triples following incorrect triples

    图  5   不同目标三元组数量下的F1值比较

    Figure  5.   Comparison of F1-score with different number of gold triplets

    图  6   样例分析

    Figure  6.   Case study

    表  1   ASTE-DATA-V2数据集的4个子数据集上的主要实验结果

    Table  1   Main Experimental Results of the Four Sub-Datasets of the ASTE-DATA-V2 Dataset %

    模型 14res 14lap 15res 16res
    P R F1 P R F1 P R F1 P R F1
    Peng-two-stage[18] 43.24 63.66 51.46 37.38 50.38 42.87 48.07 57.51 52.32 46.96 64.24 54.21
    JET[18] 70.56 55.94 62.40 55.39 47.33 51.04 64.45 51.96 57.53 70.42 58.37 63.83
    GTS[18] 68.09 69.54 68.81 59.40 51.94 55.42 59.28 57.93 58.60 68.32 66.86 67.58
    EMC-GCN[18] 71.21 72.39 71.78 61.70 56.26 58.81 61.54 62.47 61.93 65.62 71.30 68.33
    Span-ASTE[21] 72.89 70.89 71.85 63.44 55.84 59.38 62.18 64.45 63.27 69.45 71.17 70.26
    SBN[22] 76.36 72.43 74.34 65.68 59.88 62.65 69.93 60.41 64.82 71.59 72.57 72.08
    STAGE[23] 78.58 69.58 73.76 70.56 55.16 61.88 72.33 58.93 64.94 78.38 69.10 73.45
    BMRC* 75.19 68.31 71.58 70.70 53.77 61.09 64.33 58.76 61.42 73.22 65.95 69.40
    RoBMRC* 73.15 71.83 72.48 65.52 59.85 62.56 65.77 65.36 65.56 70.39 73.54 71.93
    COM-MRC* 71.76 70.82 71.29 65.52 63.58 64.54 65.84 65.98 65.91 65.64 74.32 69.71
    BART-ABSA[18] 65.52 64.99 65.25 61.41 56.19 58.69 59.14 59.38 59.26 66.60 68.68 67.62
    ParaPhrase* 73.41 70.82 72.09 64.31 58.74 61.40 60.85 64.74 62.73 70.42 71.79 71.10
    GAS[28] 72.16 60.78 62.10 70.10
    UIE-base[31] 72.55 62.94 64.41 72.86
    Seq2Path[32] 75.52 65.27 65.88 73.67
    BDTF[20] 75.53 73.24 74.35 68.94 55.97 61.74 68.76 63.71 66.12 71.44 73.13 72.27
    TePDuP(本文) 80.79 73.20 76.80 74.79 60.58 66.93 73.35 61.64 66.92 77.53 74.51 75.99
    注:“*”标记的方法的数据来自我们复现的结果,黑体数值表示最优值.
    下载: 导出CSV

    表  2   ASTE-DATA-V2数据集的4个子数据集上方面术语抽取与观点术语抽取结果

    Table  2   Results of ATE and OTE for the Four Sub-Datasets of ASTE-DATA-V2 Dataset %

    数据集 方面术语抽取 观点术语抽取
    P R F1 P R F1
    14res 87.03 74.95 80.54 85.58 74.65 79.74
    14lap 87.77 74.03 80.32 87.14 72.38 79.07
    15res 83.94 76.49 80.04 81.17 74.64 77.76
    16res 83.99 78.60 81.21 83.66 82.68 83.17
    下载: 导出CSV

    表  3   ASTE-DATA-V2数据集的4个子数据集上基于术语提示的文本生成结果

    Table  3   Text Generation Results Based on Term Prompts for the Four Sub-Datasets of ASTE-DATA-V2 Dataset %

    数据集提示路径文本生成
    PRF1
    14res方面术语83.1882.7982.99
    观点术语85.1081.7983.41
    14lap方面术语74.3070.1072.14
    观点术语75.2473.2974.25
    15res方面术语73.0373.8173.41
    观点术语77.7177.3877.54
    16res方面术语83.5782.4282.99
    观点术语83.1681.7182.42
    下载: 导出CSV

    表  4   不同预训练模型在ASTE-DATA-V2数据集的4个子数据集上的F1值表现

    Table  4   Performance of Different Pre-Trained Models on the Four Sub-Datasets of ASTE-DATA-V2 Dataset in Terms of F1-score %

    模型 预训练模型 预训练
    模型参
    数量
    14res 14lap 15res 16res 平均
    BMRC BERT-base-uncased 109 67.99 57.82 60.02 65.75 62.90
    T5-base. encoder 110 71.58 61.09 61.42 69.40 65.87
    RoBMRC BERT-base-uncased 109 72.62 62.12 65.63 73.16 68.38
    T5-base. encoder 110 72.48 62.56 65.56 71.93 68.13
    COM-
    MRC
    BERT-base-uncased 109 72.01 60.17 64.53 71.57 67.07
    T5-base. encoder 110 71.29 64.54 65.91 69.71 67.86
    BART-
    ABSA
    BART-base 139 65.25 58.69 59.26 67.62 62.71
    GAS T5-base 223 72.16 60.78 62.10 70.10 66.29
    ParaPhrase T5-base 223 72.09 61.40 62.73 71.10 66.83
    Seq2Path T5-base 223 75.52 65.27 65.88 73.67 70.09
    UIE UIE-base 223 72.55 62.94 64.41 72.86 68.19
    UIE-large 750 74.52 63.88 67.15 75.07 70.16
    BDTF BERT-base-uncased 109 74.35 61.74 66.12 72.27 68.62
    DeBERTa-v3-base 184 75.48 66.71 68.22 75.36 71.44
    TePDuP
    (本文)
    BART-base 139 72.21 62.01 62.82 71.36 67.10
    T5-small 61 73.17 62.46 64.70 73.70 68.51
    T5-base 223 76.80 66.93 66.92 75.99 71.66
    T5-large 750 77.16 67.75 68.25 76.46 72.40
    注:黑体数值表示最优值,划线数值表示次优值.
    下载: 导出CSV

    表  5   ASTE-DATA-V2数据集的4个子数据集上的F1值消融实验结果

    Table  5   F1-score Ablation Experiment Results on the Four Sub-Datasets of ASTE-DATA-V2 Dataset %

    模型 14res 14lap 15res 16res 与TePDuP
    平均F1值
    的差值
    TePDuP(本文) 76.80 66.93 66.92 75.99
    w/o S-S(本文) 75.32 66.42 65.14 74.96 –1.20
    w/o OTP(本文) 74.96 64.85 65.09 72.68 –2.27
    w/o OTP & S-S(本文) 74.44 64.02 64.39 71.53 –3.07
    w/o ATP(本文) 74.23 64.88 63.32 73.51 –2.68
    w/o ATP & S-S(本文) 73.15 64.46 62.40 72.42 –3.55
    BART-ABSA 65.25 58.69 59.26 67.62 –8.96
    GAS 72.16 60.78 62.10 70.10 –5.38
    ParaPhrase 72.09 61.40 62.73 71.10 –4.83
    SEL-base 71.27 58.69 59.60 70.24 –6.71
    UIE-base 72.55 62.94 64.41 72.86 –3.47
    注:w/o S-S(scheduled-sampling)表示在TePDuP基础上去掉计划采样优化,w/o OTP(opinion term prompt)表示没有方面术语提示路径的答案,w/o OTP & S-S表示没有方面术语提示路径的答案并且还去掉了计划采样优化;类似地,w/o ATP(aspect term prompt)和w/o ATP & S-S分别表示没有方面术语提示路径的答案以及同时没有方面术语提示路径的答案和计划采样优化.
    下载: 导出CSV
  • [1]

    Liu Bing. Sentiment Analysis and Opinion Mining[M]. San Rafael, CA: Morgan & Claypool Publishers, 2012

    [2]

    Pontiki M, Galanis D, Pavlopoulos J, et al. SemEval−2014 task 4: Aspect based sentiment analysis[C]//Proc of the 8th Int Workshop on Semantic Evaluation. Stroudsburg, PA: ACL, 2014: 27−35

    [3]

    Yin Yichun, Wei Furu, Dong Li, et al. Unsupervised word and dependency path embeddings for aspect term extraction[C]//Proc of the 25th Int Joint Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2016: 2979−2985

    [4]

    Li Xin, Bing Lidong, Li Piji, et al. Aspect term extraction with history attention and selective transformation[C]//Proc of the 27th Int Joint Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2018: 4194−4200

    [5]

    Ma Dehong, Li Sujian, Wu Fangzhao, et al. Exploring sequence-to-sequence learning in aspect term extraction[C]//Proc of the 57th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2019: 3538−3547

    [6]

    Liu Pengfei, Joty S, Meng Helen. Fine-grained opinion mining with recurrent neural networks and word embeddings[C]//Proc of the 2015 Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2015: 1433−1443

    [7]

    Wu Shengqiong, Fei Hao, Ren Yafeng, et al. Learn from syntax: Improving pair-wise aspect and opinion terms extraction with rich syntactic knowledge[C]//Proc of the 30th Int Joint Conf on Artificial Intelligence. Berlin: Springer, 2021: 3957−3963

    [8]

    Wang Yequan, Huang Minlie, Zhu Xiaoyan, et al. Attention-based LSTM for aspect-level sentiment classification[C]//Proc of the 2016 Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2016: 606−615

    [9]

    Chen Peng, Sun Zhongqian, Bing Lidong, et al. Recurrent attention network on memory for aspect sentiment analysis[C]//Proc of the 2017 Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2017: 452−461

    [10]

    Jiang Qingnan, Chen Lei, Xu Ruifeng, et al. A challenge dataset and effective models for aspect-based sentiment analysis[C]//Proc of the 2019 Conf on Empirical Methods in Natural Language Processing and the 9th Int Joint Conf on Natural Language Processing. Stroudsburg, PA: ACL, 2019: 6280−6285

    [11]

    Zhang Mi, Qian Tieyun. Convolution over hierarchical syntactic and lexical graphs for aspect level sentiment analysis[C]//Proc of the 2020 Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2020: 3540−3549

    [12]

    Chen Zhuang, Qian Tieyun. Relation-aware collaborative learning for unified aspect-based sentiment analysis[C]//Proc of the 58th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2020: 3685−3694

    [13]

    Zhao He, Huang Longtao, Zhang Rong, et al. Spanmlt: A span-based multi-task learning framework for pair-wise aspect and opinion terms extraction[C]//Proc of the 58th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2020: 3239−3248

    [14]

    Peng Haiyun, Xu Lu, Bing Lidong, et al. Knowing what, how and why: A near complete solution for aspect-based sentiment analysis[C]//Proc of the 34th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2020: 8600−8607

    [15]

    Zhang Chen, Li Qiuchi, Song Dawei, et al. A multi-task learning framework for opinion triplet extraction[C]//Proc of the Findings of the Association for Computational Linguistics: EMNLP 2020. Stroudsburg, PA: ACL, 2020: 819−828

    [16]

    Xu Lu, Li Hao, Lu Wei, et al. Position-aware tagging for aspect sentiment triplet extraction[C]//Proc of the 2020 Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2020: 2339−2349

    [17]

    Wu Zhen, Ying Chengcan, Zhao Fei, et al. Grid tagging scheme for aspect-oriented fine-grained opinion extraction[C]//Proc of the Findings of the Association for Computational Linguistics: EMNLP 2020. Stroudsburg, PA: ACL, 2020: 2576−2585

    [18]

    Chen Hao, Zhai Zepeng, Feng Fangxiang, et al. Enhanced multi-channel graph convolutional network for aspect sentiment triplet extraction[C]//Proc of the 60th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2022: 2974−2985

    [19] 刘欣逸,宁博,王明,等. 基于句法增强的细粒度情感三元组抽取方法[J]. 计算机研究与发展,2023,60(7):1649−1660

    Liu Xinyi, Ning Bo, Wang Ming, et al. Fine-grained sentiment triplet extraction method based on syntactic enhancement[J]. Journal of Computer Research and Development, 2023, 60(7): 1649−1660 (in Chinese)

    [20]

    Zhang Yice, Yang Yifan, Li Yihui, et al. Boundary-driven table-filling for aspect sentiment triplet extraction[C]//Proc of the 2022 Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2022: 6485−6498

    [21]

    Xu Lu, Chia Y K, Bing Lidong. Learning span-level interactions for aspect sentiment triplet extraction[C]//Proc of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th Int Joint Conf on Natural Language Processing. Stroudsburg, PA: ACL, 2021: 4755−4766

    [22]

    Chen Yuqi, Chen Keming, Sun Xian, et al. A span-level bidirectional network for aspect sentiment triplet extraction[C]//Proc of the 2022 Conf Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2022: 4300−4309

    [23]

    Liang Shuo, Wei Wei, Mao Xianling, et al. STAGE: Span tagging and greedy inference scheme for aspect sentiment triplet extraction[C]//Proc of the 37th AAAI Conf Artificial Intelligence. Palo Alto, CA: AAAI, 2023: 13174−13182

    [24]

    Mao Yue, Shen Yi, Yu Chao, et al. A joint training dual-MRC framework for aspect based sentiment analysis[C]//Proc of the 35th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2021: 13543−13551

    [25]

    Chen Shaowei, Wang Yu, Liu Jie, et al. Bidirectional machine reading comprehension for aspect sentiment triplet extraction[C]//Proc of the 35th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2021: 12666−12674

    [26]

    Zhai Zepeng, Chen Hao, Feng Fangxiang, et al. COM-MRC: A context-masked machine reading comprehension framework for aspect sentiment triplet extraction[C]//Proc of the 2022 Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2022: 3230−3241

    [27]

    Liu Shu, Li Kaiwen, Li Zuhe. A robustly optimized BMRC for aspect sentiment triplet extraction[C]//Proc of the 2022 Conf of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Stroudsburg, PA: ACL, 2022: 272−278

    [28]

    Zhang Wenxuan, Li Xin, Deng Yang, et al. Towards generative aspect-based sentiment analysis[C]//Proc of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th Int Joint Conf on Natural Language Processing. Stroudsburg, PA: ACL, 2021: 504−510

    [29]

    Zhang Wenxuan, Deng Yang, Li Xin, et al. Aspect sentiment quad prediction as paraphrase generation[C]//Proc of the 2021 Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2021: 9209−9219

    [30]

    Yan Hang, Dai Junqi, Ji Tuo, et al. A unified generative framework for aspect-based sentiment analysis[C]//Proc of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th Int Joint Conf on Natural Language Processing. Stroudsburg, PA: ACL, 2021: 2416−2429

    [31]

    Lu Yaojie, Liu Qing, Dai Dai, et al. Unified structure generation for universal information extraction[C]//Proc of the 60th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2022: 5755−5772

    [32]

    Mao Yue, Shen Yi, Yang Jingchao, et al. Seq2Path: Generating sentiment tuples as paths of a tree[C]//Proc of the Findings of the Association for Computational Linguistics: 60th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2022: 2215−2225

    [33]

    Zhang R H, Liu Qianying, Fan A X, et al. Minimize exposure bias of Seq2Seq models in joint entity and relation extraction[C]//Proc of the Findings of the Association for Computational Linguistics: EMNLP 2020. Stroudsburg, PA: ACL, 2020: 236−246

    [34]

    Bengio S, Vinyals O, Jaitly N, et al. Scheduled sampling for sequence prediction with recurrent neural networks[C]//Proc of the 28th Int Conf on Neural Information Processing Systems. Cambridge, MA: MIT, 2015: 1171−1179

    [35]

    Bu Jiahao, Ren Lei, Zheng Shuang, et al. ASAP: A Chinese review dataset towards aspect category sentiment analysis and rating prediction[C]//Proc of the 2021 Conf of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Stroudsburg, PA: ACL, 2021: 2069−2079

    [36]

    Zhou Xinjie, Wan Xiaojun, Xiao Jianguo. Representation learning for aspect category detection in online reviews[C]//Proc of the 29th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2015: 417−424

    [37]

    Huang Binxuan, Carley K M. Parameterized convolutional neural networks for aspect level sentiment classification[C]//Proc of the 2018 Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2018: 1091−1096

    [38]

    Hu Mengting, Zhao Shiwan, Zhang Li, et al. CAN: Constrained attention networks for multi-aspect sentiment analysis[C]//Proc of the 2019 Conf on Empirical Methods in Natural Language Processing and the 9th Int Joint Conf on Natural Language Processing. Stroudsburg, PA: ACL, 2019: 4601−4610

    [39]

    Ruder S, Ghaffari P, Breslin J G. A hierarchical model of reviews for aspect-based sentiment analysis[C]//Proc of the 2016 Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2016: 999−1005

    [40]

    Chen Shaowei, Liu Jie, Wang Yu, et al. Synchronous double-channel recurrent network for aspect-opinion pair extraction[C]//Proc of the 58th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2020: 6515−6524

    [41]

    Cai Hongjie, Tu Yaofeng, Zhou Xiangsheng, et al. Aspect-category based sentiment analysis with hierarchical graph convolutional network[C]//Proc of the 28th Int Conf on Computational Linguistics. Stroudsburg, PA: ACL, 2020: 833−843

    [42]

    Luo Huaishao, Li Tianrui, Liu Bing, et al. DOER: Dual cross-shared RNN for aspect term-polarity co-extraction[C]//Proc of the 57th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2019: 591−601

    [43]

    Li Xin, Bing Lidong, Li Piji, et al. A unified model for opinion target extraction and target sentiment prediction[C]//Proc of the 33rd AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2019: 6714−6721

    [44]

    He Ruidan, Lee Wee Sun, Ng Hwee Tou, et al. An interactive multi-task learning network for end-to-end aspect-based sentiment analysis[C]//Proc of the 57th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2019: 504−515

    [45]

    Devlin J, Chang Mingwei, Lee K, et al. BERT: Pre-training of deep bidirectional transformers for language understanding[C]//Proc of the 2019 Conf of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Stroudsburg, PA: ACL, 2019: 4171−4186

    [46]

    Peters M E, Neumann M, Iyyer M, et al. Deep contextualized word representations[C]//Proc of the 2018 Conf of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Stroudsburg, PA: ACL, 2018: 2227−2237

    [47]

    Radford A, Wu J, Child R, et al. Language models are unsupervised multitask learners[EB/OL]. 2019[2023-10-22]. https://cdn.openai.com/better-language-models/language_models_are_unsupervised_multitask_learners.pdf

    [48]

    Li Xiaoya, Feng Jingrong, Meng Yuxian, et al. A unified MRC framework for named entity recognition[C]//Proc of the 58th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2020: 5849−5859

    [49]

    Li Xiaoya, Yin Fan, Sun Zijun, et al. Entity-relation extraction as multi-turn question answering[C]//Proc of the 57th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2019: 1340−1350

    [50]

    Raffel C, Shazeer N, Roberts A, et al. Exploring the limits of transfer learning with a unified text-to-text transformer[J]. The Journal of Machine Learning Research, 2020, 21(1): 5485−5551

    [51]

    Lewis M, Liu Yinhan, Goyal N, et al. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension[C]//Proc of the 58th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2020: 7871−7880

    [52]

    Pontiki M, Galanis D, Papageorgiou H, et al. SemEval−2016 task 5: Aspect based sentiment analysis[C]//Proc of the 10th Int Workshop on Semantic Evaluation. Stroudsburg, PA: ACL, 2016: 19−30

    [53]

    Pontiki M, Galanis D, Papageorgiou H, et al. SemEval−2015 task 12: Aspect based sentiment analysis[C]//Proc of the 9th Int Workshop on Semantic Evaluation. Stroudsburg, PA: ACL, 2015: 486−495

图(6)  /  表(5)
计量
  • 文章访问数:  57
  • HTML全文浏览量:  27
  • PDF下载量:  2
  • 被引次数: 0
出版历程
  • 收稿日期:  2023-10-30
  • 修回日期:  2024-06-10
  • 录用日期:  2024-08-08
  • 网络出版日期:  2024-08-16

目录

/

返回文章
返回