Processing math: 8%
  • 中国精品科技期刊
  • CCF推荐A类中文期刊
  • 计算领域高质量科技期刊T1类
高级检索

基于帧结构的语音对抗样本重点区域扰动分析

韩松莘, 郭松辉, 徐开勇, 杨博, 于淼

韩松莘, 郭松辉, 徐开勇, 杨博, 于淼. 基于帧结构的语音对抗样本重点区域扰动分析[J]. 计算机研究与发展, 2024, 61(3): 685-700. DOI: 10.7544/issn1000-1239.202221034
引用本文: 韩松莘, 郭松辉, 徐开勇, 杨博, 于淼. 基于帧结构的语音对抗样本重点区域扰动分析[J]. 计算机研究与发展, 2024, 61(3): 685-700. DOI: 10.7544/issn1000-1239.202221034
Han Songshen, Guo Songhui, Xu Kaiyong, Yang Bo, Yu Miao. Perturbation Analysis of the Vital Region in Speech Adversarial Example Based on Frame Structure[J]. Journal of Computer Research and Development, 2024, 61(3): 685-700. DOI: 10.7544/issn1000-1239.202221034
Citation: Han Songshen, Guo Songhui, Xu Kaiyong, Yang Bo, Yu Miao. Perturbation Analysis of the Vital Region in Speech Adversarial Example Based on Frame Structure[J]. Journal of Computer Research and Development, 2024, 61(3): 685-700. DOI: 10.7544/issn1000-1239.202221034
韩松莘, 郭松辉, 徐开勇, 杨博, 于淼. 基于帧结构的语音对抗样本重点区域扰动分析[J]. 计算机研究与发展, 2024, 61(3): 685-700. CSTR: 32373.14.issn1000-1239.202221034
引用本文: 韩松莘, 郭松辉, 徐开勇, 杨博, 于淼. 基于帧结构的语音对抗样本重点区域扰动分析[J]. 计算机研究与发展, 2024, 61(3): 685-700. CSTR: 32373.14.issn1000-1239.202221034
Han Songshen, Guo Songhui, Xu Kaiyong, Yang Bo, Yu Miao. Perturbation Analysis of the Vital Region in Speech Adversarial Example Based on Frame Structure[J]. Journal of Computer Research and Development, 2024, 61(3): 685-700. CSTR: 32373.14.issn1000-1239.202221034
Citation: Han Songshen, Guo Songhui, Xu Kaiyong, Yang Bo, Yu Miao. Perturbation Analysis of the Vital Region in Speech Adversarial Example Based on Frame Structure[J]. Journal of Computer Research and Development, 2024, 61(3): 685-700. CSTR: 32373.14.issn1000-1239.202221034

基于帧结构的语音对抗样本重点区域扰动分析

基金项目: 国家自然科学基金项目(62176265)
详细信息
    作者简介:

    韩松莘: 1999年生. 硕士. 主要研究方向为人工智能安全、云计算安全

    郭松辉: 1979年生. 博士,研究员. 主要研究方向为5G安全、云计算安全

    徐开勇: 1963年生. 博士,研究员. 主要研究方向为信息安全、可信计算

    杨博: 1993年生. 博士研究生. 主要研究方向为深度学习、智能系统安全测试与评估

    于淼: 1987年生. 硕士研究生. 主要研究方向为人工智能安全、自然语言处理

    通讯作者:

    郭松辉(songhui.guo@outlook.com

  • 中图分类号: TP309;TP391

Perturbation Analysis of the Vital Region in Speech Adversarial Example Based on Frame Structure

Funds: This work was supported by the National Natural Science Foundation of China (62176265).
More Information
    Author Bio:

    Han Songshen: born in 1999. Master. His main research interests include artificial intelligence security and cloud computing security

    Guo Songhui: born in 1979. PhD, professor. His main research interests include 5G security and cloud computing security

    Xu Kaiyong: born in 1963. PhD, professor. His main research interests include information security and trusted computing

    Yang Bo: born in 1993. PhD candidate. His main research interests include deep learning, and intelligent system security testing and evaluation

    Yu Miao: born in 1987. Master candidate. His main research interests include artificial intelligence security and natural language processing

  • 摘要:

    目前针对语音识别模型的对抗攻击主要是在整条语音上添加噪声,扰动范围大且引入了高频噪声. 现有研究在一定程度上缩小了扰动范围,但由于语音对抗攻击需要在每帧添加扰动实现对转录结果的控制,限制了扰动范围的进一步降低. 针对此问题,从帧结构的角度研究了语音识别系统中的特征提取流程,发现分帧和加窗处理决定了帧结构中重点区域的分布,即帧内各采样点上添加扰动的重要性受采样点所处位置的影响. 首先,根据对输入特征的扰动分析结果进行区域划分;然后,为了量化这些采样点对求解对抗样本的重要性,提出了对抗样本空间度量方法和相应的评价指标,并设计了在帧内不同区间上添加扰动的交叉实验,进而确定了扰动添加的重点区域;最后,在多个模型上进行了广泛的实验,表明了在重点区域添加对抗扰动能够缩小扰动范围,为高质量语音对抗样本的生成提出新的角度.

    Abstract:

    At present, adversarial attacks on speech recognition models have typically involved adding noise to the entire speech signal, resulting in a wide perturbation range and introducing high-frequency noise. Existing research has attempted to reduce the perturbation range by designing optimization targets. However, controlling the transcription result requires adding perturbations to each frame, thus limiting further reduction in perturbation range. To address this issue, we propose a novel approach that examines the feature extraction process of speech recognition systems from a frame structure perspective. The study finds that framing and windowing determine the distribution of critical regions within the frame structure. Specifically, the weight of adding perturbation to each sampling point within the frame is influenced by its location. Based on the results of perturbation analysis on input features, we partition regions with shared attributes. Then we propose the adversarial example space measurement method and evaluation index to quantify the weight of sampling points for adversarial examples generation. We conduct cross-experiments by adding perturbations at different intervals within the frame, which enables us to identify key regions for perturbation addition. Our experiments on multiple models demonstrate that adding adversarial perturbation to vital regions can narrow the perturbation range, and provide a new perspective for generating high-quality audio adversarial examples.

  • 图灵测试至今依然是评判机器是否具有人类智慧的重要手段,它代表着机器对人类知识体系或交互的理解程度,是人工智能的一个充分条件. 近些年来,为了让机器像人类一样思考与交互,研究者们一直热衷于类似图灵测试相关人工智能系统的研究,如问答系统. 随着问答系统在自然语言处理的成功,人们开始考虑将这种交互式的问答方式引入计算机视觉领域,对视觉对象进行交互式理解[1]. 在此背景下,基于图像的ImageQA在2015年被提出[2],并受到广泛关注[3-5]. 而VideoQA则是ImageQA的自然扩展,即将ImageQA的单幅图像延伸为图像序列,VideoQA任务应运而生. VideoQA 可以被认为是一种视觉图灵测试,它也需要理解问题的能力,但不一定需要更复杂的自然语言处理. 一个优秀的VideoQA模型能够解决诸多计算机视觉相关方面的问题,因此它可以作为图灵测试的重要组成部分. 由于生活中大多数数据均为动态视觉信息,VideoQA系统在实际场景中的应用更为广泛,基于视频的对话问答已逐渐成为人机交互的重要方式. 这项技术的发展对智慧教育、智能交通以及视频取证等方面均有着积极的影响,尤其能极大程度地帮助视障人士在网络与现实世界获取有用的视觉信息[6].

    据当前调研所知,国内单纯的VideoQA方向的综述文章未见发表,与之相关的ImageQA综述如文献[1]对VideoQA任务的难点只做了简单分析,文献[7]针对ImageQA任务提出的部分挑战同样适用于VideoQA任务. 国外鲜有报道,在目前发表的几篇综述论文中,Patel等人[8]对目前常用的数据集和主流方法进行分类与介绍,但仅仅是简单罗列,并没有分析各方法之间的关系. Khurana等人[9]对主流方法的分类总结比文献[8]更为全面,然而该文提到的方法与数据集不够完善. Sun等人[10]对现有VideoQA任务的数据集与方法的归纳与总结相对完善,对模型分析比较透彻,但近2年新出现的方法与数据集也有待完善. 相对于国外的这3篇综述,本文除了回顾基于注意力机制[11]的方法与记忆网络(memory networks, MemNN)[12]的方法之外,还将近2年新出现的基于图网络,如图神经网络[13](graph neural network,GNN)与图卷积神经网络[14] (graph convolutional network,GCN)的方法、基于预训练的方法以及基于Transformer[15]与BERT[16]的方法进行了总结与分析;同时,将当下绝大多数用于VideoQA数据集各项指标进行了收集,并对常用数据集的模型性能进行汇总与分析. 通过表1 进行对比,可以看出本文无论是数据集还是方法介绍均是目前最全面的.

    表  1  VideoQA综述工作对比
    Table  1.  Comparison of VideoQA Survey Works
    综述工作 数据集 方法
    最新年份 个数 最新年份 个数 注意力 记忆网络 图网络 Transformer/BERT 预训练
    Patel等人[8] 2020 18 2020 26 × × ×
    Khurana等人[9] 2019 11 2020 22 × ×
    Sun等人[10] 2019 11 2020 41 × × ×
    本文 2022 30 2022 83
    注:“√”表示使用;“×”表示未使用.
    下载: 导出CSV 
    | 显示表格

    除此之外,本文的VideoQA研究进展调研力求提供一个全面且系统的综述工作,收集了计算机视觉、自然语言处理、多媒体和机器学习等诸多领域的知名会议与期刊论文,如CVPR,ICCV,ECCV,AAAI,NeurIPS,IJCAI,ACM MM,ACL,EMNLP,TPAMI,TIP,IJCV等. 这些论文主要发表于2017-2021年,对于2022年1~3月发表的论文也进行了统计,如图1所示. 本综述具体行文的组织结构如图2所示.

    图  1  论文统计
    Figure  1.  Paper statistics
    图  2  本文的概述
    Figure  2.  The overview of our paper

    本节主要介绍VideoQA问题定义、VideoQA相较与ImageQA的区别及挑战以及近几年VideoQA的发展趋势.

    VideoQA的目标是根据一个视频V和与之相关的问题q推断出问题的答案˜a. VideoQA模型可以表述为:

    ˜a=argmax (1)

    其中 \mathcal{F} 为评分函数, \theta 为模型参数, \mathcal{A} 是一个可能存在答案的集合.

    VideoQA任务中的问题可以分为开放式问题、选择题和填空题3种类型. 开放式问题类型如图3(a)所示,问题没有候选答案;选择题类型如图3(b)所示,1个问题对应多个候选答案,候选答案中只有1个是正确的;填空题类型如图3(c)所示,1句话中缺少1个词,需要模型进行填充. 其中,填空题可以视为一种特殊的开放式问题,在后文2.3节将其视为开放式问题.

    图  3  各类型问题示例
    Figure  3.  Examples of various types of questions

    VideoQA是一项结合计算机视觉与自然语言处理的任务,该任务根据问题来分析视频内容并得出答案. VideoQA由ImageQA发展而来,ImageQA任务中的模型根据给定的一幅图片及自然语言的问题,以自然语言的形式给出答案,如图4所示. 相较于ImageQA,VideoQA将图片替换成视频,从静态的图片变成了动态连续的帧序列. 所以,不能简单应用原有的ImageQA模型,而是需要在原有的基础之上对帧序列进行动作分析和时序建模,并同时考虑到视频中的多模态信息,因此VideoQA相对而言更具有挑战性.

    图  4  VideoQA与ImageQA模型对比
    Figure  4.  Comparison of VideoQA and ImageQA models

    具体来讲,VideoQA相对于ImageQA主要有2方面的区别:一方面,对于ImageQA来讲,图片是静态的,包含的信息(颜色、对象及其空间位置等)更容易通过模型进行提取与分析,所以模型只需要充分理解单幅图片上的所有信息,外加少量辅助知识,就能够在回答针对单幅图像的问题上取得具有竞争性的结果. 相比于ImageQA,VideoQA模型处理的是连续变化的动态视频帧信息,包含更丰富多变的信息(外观信息、音频信息、动作与状态转换等). 另一方面,ImageQA大多是关于对象外观的帧级问题,主要关注图片的对象属性,例如颜色或者空间位置等,推理部分相对较少. 然而VideoQA中大多是关于对象行为与因果关系的问题,此类问题的回答就需要模型具有更强的对上下文建模和因果推理的能力. 同时,视频中包含许多时间线索,大部分问题也是关于视频的时序推理,比如状态转换、动作计数等,所以VideoQA模型又需要良好的时序建模能力.

    从上述VideoQA与ImageQA的对比分析中,可以总结VideoQA任务主要面临4方面挑战:

    1)基于问题的关键帧定位

    视频通常每秒包含多帧图片,必然存在大量问题无关的冗余信息,这种冗余会干扰模型的推理过程. 如何保证从大量复杂信息中根据问题定位到预测答案所需的关键时刻信息是至关重要的. 突出与问题相关的重要信息是进行准确推理的关键.

    2)丰富多样的信息需要记忆

    为了更准确地回答有关动作、因果等相关的复杂问题,模型无论在数量上还是在多样性上都需要记忆更长的信息,而信息的完整性是进行推理的前提.

    3)基于帧序列的时空建模

    视频作为图像序列,不仅包含静态属性,如颜色、位置,还包含更多时空相关的动态属性,如动作和状态转换. 丰富多样化的信息意味着推理过程更加复杂,需要根据问题整合时空2个维度的信息进行综合推理. 多维度信息可以互相增强,对于时空推理的问题起到很大帮助.

    4)多模态信息的语义理解

    多模态信息体现在视频包含多个类型的媒体数据,如图像、语音、标题和字幕等. 这些数据的交叉使得视频具有更复杂的语义信息,也对模型获取更好的多模特征表示提出了更高的要求.

    应对这4个挑战的关键在于如何建立视频和问题之间的语义联系及其在时序上的连续性与关联性,其关键是将视频特征和文本特征进行处理与融合. 根据模型处理方法的不同,本文将VideoQA模型分为基于注意力的模型、基于记忆网络的模型、基于图网络的模型、基于预训练的模型、基于Transformer与BERT的模型及其他模型.

    总体来讲,VideoQA模型由最初的注意力和记忆网络发展到目前流行的图网络、预训练及Transformer与BERT,代表性模型的年历表概览如图5所示. 早期的VideoQA模型(2017-2019)为了去除视频中大量问题无关的冗余信息,多数采用了注意力机制,此类方法根据问题有效地提取视频的关键信息以用于答案推理. 同时,为了保证模型能够从视频中更好地挖掘多个时间帧信息的关联性,保证信息的完整性,许多模型引入了记忆网络. 2020至今,鉴于图神经网络在关系建模和推理方面的优异表现,部分研究者开始将其应用于VideoQA任务中以更好地建模对象关系信息,并且挖掘丰富的时-空相关的动态属性.

    图  5  主流的VideoQA模型年历表概览
    Figure  5.  Overview of the mainstream VideoQA model almanacs

    除此之外,随着Transformer与BERT模型在自然语言处理领域所展现的出色性能,越来越多的研究者尝试将其引入自己的VideoQA模型(包括预训练模型)中去. Transformer与BERT改进了循环神经网络(recurrent neural network,RNN)训练慢的缺点,利用自注意力机制实现快速并行,并且可以增加到非常深的深度,充分挖掘深度神经网络模型的特性,提升模型准确率. 与此同时,视觉语言预训练模型在近2年也展现了在海量互联网数据中学习视觉-文本联合表征的强大能力,这种由数据驱动的预训练模型的性能在下游的VideoQA任务中也崭露头角.

    图6为VideoQA模型的详细处理流程. VideoQA模型处理主要分为视频与文本的特征提取与编码、多模态特征处理与融合以及答案生成3个部分. 特征提取与编码又分为视频和文本的特征提取与编码,主要介绍目前通用的技术,该部分内容将在2.1节进行介绍;对特征的处理与融合是VideoQA的核心与关键,也是研究者们围绕该任务展开研究的主要方面,每一个方法的不同之处也均体现在这一部分,该内容将在2.2节进行重点介绍;答案生成部分对于不同的问答任务已经形成了相对固定的答案解码方式,该部分将在2.3节进行综合介绍.

    图  6  VideoQA模型处理流程
    Figure  6.  VideoQA model processing flow

    视频的视觉特征提取不仅包含静态的区域级(对象)特征和帧级特征提取,还包含动态的片段级特征提取. 区域级特征是对局部信息的细粒度表示,可以表示为对象特征及其标签,此类特征一般使用目标检测网络进行提取,如Faster R-CNN[17]. 帧级视频特征是对全局视觉信息的粗粒度表示,较之于区域级特征可以获取更丰富的信息,如场景信息等. 目前帧级特征常直接应用ImageQA模型中的图片特征提取方法,即在ImageNet[18]上预训练的2D卷积神经网络,如VGGNet[19],GoogLeNe[20],ResNet[21]. 片段级视频特征,是顺序的和动态的特征表示,如动作. 片段级特征早期采用用于动作识别的3D 卷积网络,从空间和时间维度中提取特征,从而捕获在多个相邻帧中编码的动作信息. 随着C3D[22]网络在动作识别和捕捉视频动态信息中展现出优异性能,C3D成为主流的动作特征提取方法,后续也有方法在C3D的基础上进一步地优化,如双流膨胀3D卷积网络I3D[23]等与基于时域和空间域分离的S3D[24]网络. 除此之外,ResNeXt[25]与SlowFast[26]等也用于3D动作识别. 除了视觉特征以外,视频中音频模态信息也被用来作为视觉特征的补充[27-28]. 比如对于唱歌、演讲类型的视频,音频信息对于视频中事件的理解可以起到很好的补充作用. 针对VideoQA中的音频特征的提取,常见的有手工设计的传统特征梅尔频谱以及基于深度神经网络的SoundNet[29]与WALNet[30]. 此外,视频中的标题和字幕包含了丰富的语义信息,通常也用作为视频的文本模态信息的建模. 由于标题或字幕特征提取与问题特征提取类似,其特征提取方式将在2.1.2节文本特征提取中介绍.

    视频在输入时包含视觉、字幕与音频多种模态信息,模型对其进行融合方式也不尽相同. 简单地操作实现不同模态的特征向量的整合,例如部分模型使用点乘、点加、拼接和加权求和[31],然而简单操作使得参数之间几乎没有联系,这种方式的联合向量表达能力明显不足. 所以有模型使用双线性池化融合视频多模态特征向量来获得一个联合表征空间[32-33],其方法是计算两者的外积,通过将外积生成的矩阵线性化成一个向量表示,这意味着该方法更具有表现力. 目前,很多模型利用注意力机制来融合视频多模态信息[34-35],多模态特征向量通过注意力操作可以动态产生求和时要用到的权重,特征融合时可以保存额外的权重信息,起到信息互补的作用. 此外,由于Transformer 全自注意力的结构天生就具备处理不同模态数据的能力,逐渐成为主流的多模态融合的方法. 其主要分为单流模型和多流模型,单流模型将视觉和文本的嵌入拼接到一起,输入到一个Transformer中;而多流模型让视觉和文本使用2个或多个独立的Transformer分别编码[36-37],并且可在中间层加入视觉和文本2个模态之间互注意力来融合多模态信息.

    文本特征提取包括视频中字幕的文本特征提取与问题的文本特征提取,文本特征提取又可以分为单词级特征与句子级特征. 对于单词级特征,主要采用包括Word2Vec[38]和GloVe[39]的词嵌入来提取单词级特征. 而对于句子级特征,主要采用Skip-Thought[40]和BERT来提取句子级特征. 其中BERT是一种经过微调的基于Transformer的语言模型,它能够捕捉双向上下文信息,用以在不同的句子级别任务中预测句子,目前已成为主流的文本处理方案.

    视频中的视觉和文本都是序列数据,因此在VideoQA任务中,许多研究者使用基于RNN的模型来编码视频的帧级特征与文本的单词级特征,来获取视频片段级特征和问题级特征. 常被使用的经典RNN结构包括长短期记忆(long short term memory,LSTM)[41]编码器和门控递归单元(gated recurrent unit,GRU)[42],双向LSTM(Bi-LSTM)和双向GRU(Bi-GRU)均为前两者的变体.

    注意力机制广泛应用于自然语言处理和计算机视觉领域,目前已经成为神经网络结构的重要组成部分. 常见的注意力机制包括点积模型、双线性模型以及近几年流行的自注意力模型和多头注意力模型等. 在VideoQA任务中可将问题作为查询,将视频作为源,那么注意力机制就是用来定位视频中与问题相关的信息. 由此,注意力的实质可以看作一个查询到一系列键值对的映射. 如图7 所示,注意力的计算主要分为3阶段:第1阶段是将查询和每个键进行相似度计算得到权重,常用的相似度函数有点积、拼接、感知机等;第2阶段一般是使用一个softmax函数对这些权重进行归一化;第3阶段将权重和相应的键值进行加权求和得到最终的注意力.

    图  7  注意力计算的3个阶段
    Figure  7.  Three stages of attention calculation

    在VideoQA任务中,键和值通常是同一个. 因此,常见的注意力计算过程可以描述为3种计算方式:

    \begin{aligned} {{\boldsymbol{s}}}_{i}={f}\text{(}{\boldsymbol{Q}},{{\boldsymbol{K}}}_{i}\text{)}=\left\{\begin{array}{cc}{{\boldsymbol{Q}}}^{\text{T}}{{\boldsymbol{K}}}_{i},& 点积\\ {{\boldsymbol{Q}}}^{\text{T}}{{\boldsymbol{W}}}_{\text{a}}{{\boldsymbol{K}}}_{i},& 双线性\\ {{\boldsymbol{W}}}_{\text{a}}[{\boldsymbol{Q}};{{\boldsymbol{K}}}_{i}],& 连接\\ \dfrac{{{\boldsymbol{Q}}}^{\text{T}}{{\boldsymbol{K}}}_{i}}{\sqrt{{d}_{k}}},& 缩放点积\\ {{\boldsymbol{v}}}_{\text{a}}^{\text{T}}{{\mathrm{tanh}}}\text{(}{{\boldsymbol{W}}}_{\text{a}}{\boldsymbol{Q}}+{{\boldsymbol{U}}}_{\text{a}}{{\boldsymbol{K}}}_{i}\text{)},& 感知机\end{array}\right. \end{aligned} (2)
    {{\boldsymbol{a}}}_{i}={softmax}({{\boldsymbol{s}}}_{i})=\dfrac{\mathrm{exp}({{\boldsymbol{s}}}_{i})}{{\displaystyle \sum _{i}\mathrm{exp}({{\boldsymbol{s}}}_{i})}}\text{,} (3)
    {\boldsymbol{c}}={Attention}\text{(}{\boldsymbol{Q,K,V}}\text{)}={\displaystyle \sum _{i}{{\boldsymbol{a}}}_{i}{{\boldsymbol{V}}}_{i}}. (4)

    其中 {{\boldsymbol{s}}_i} 是计算的注意力得分,代表查询与键之间的相似性; {{\boldsymbol{a}}_i} {{\boldsymbol{s}}_i} 经过归一化得到的注意力分布,实质为概率分布; {\boldsymbol{c}} 是由权重与值进行加权求和得到的最终注意力向量. 从注意力计算过程可以看出,注意力机制本质相当于资源再分配机制,对原资源根据对象重要程度重新分配资源,所分配的资源其实就是权重. 本文将基于注意力机制的模型分为:单跳注意力[43-54]、多跳注意力[33, 55-61]和多模态注意力[62-74].

    1)单跳注意力

    单跳注意力模型是指以问题为查询,对视频的视觉特征只执行1次注意力计算,视频的视觉特征包含区域级、帧级和片段级特征.

    Zhao等人[43]提出了双层注意力网络(dual-level attention network,DLAN)模型. 该网络基于帧级与片段级的视频特征分别利用词级与问题级注意力机制来学习问题的联合视频表征. 尽管DLAN利用细粒度词级注意力来增强视频表示,然而它忽略了词级语义,不同的单词需要不同程度的注意力,甚至有些词并不需要注意. Xue等人[44]提出异构树型网络,该网络通过问题中的词来构建语义树,并根据单词词性对树中的词进行处理,区分视觉词和语言词,使注意力计算更为合理. 此外,与DLAN模型分层思想不同,Jang等人[45]提出的时空视频问答(spatio-temporal VQA,ST-VQA)模型基于时空注意力机制来突出重要的区域与重要的帧,使用2个双层LSTM来挖掘视频视觉内容与问答文本内容之间的关系. Falcon等人[46]对ST-VQA模型的帧特征提取做了微调并设计使用了3种数据增强技术,分别为重采样、镜像和水平翻转. Mazaheri等人[47]提出基于分层时空注意的模型更加关注文本编码的网络,使用2个独立的LSTM分别对填空题句子空缺处的左右片段进行并行编码及反编码. Xu等人[48]提出利用粗粒度问题特征和细粒度词特征来逐步细化注意力的方法. 对于给定视频,该模型以问题的词级特征作为引导,在每个时间步上通过设计的注意力单元(AMU)对帧级外观特征与片段级动作特征进行关注. 除了利用分层机制对视频与问题进行建模,Chao等人[49]认为视频中的对话具有多层上下文关系,从分层注意力角度对视频与文本进行时空注意力机制学习. 而Zhao等人[50]从自适应分层增强编解码网络(AHRN)学习的角度来对视频内容进行建模. 自适应编码网络根据其设计的二进制门函数对视频进行分割,然后利用注意力机制在问题的引导下学习相关帧与片段的联合表示,生成问题感知视频表示.

    Kim等人[51]从多任务学习的角度来解决VideoQA任务,提出问题引导下的视频与字幕匹配任务和时间定位任务作为VideoQA的辅助任务. 与文献[51]设计思想相似,Lei等人[52]提出基于证据的时空答案(spatio-temporal answerer with grounded evidence,STAGE)模型在空间与时间维度上进行监督训练,用于辅助主任务. 这种额外的辅助监督学习在一定程度上可以弥补模型在小规模数据集上监督学习的不足. 然而STAGE模型主要是在时间维度上提取具有预设间隔的网格级特征. 相比之下,为了更好地执行多事件时间推理,Gao等人[53]提出了时序分割与事件注意力网络模型,该模型利用设计的算法将视频分割成事件级片段表示,然后利用注意力机制来定位给定问题的关键事件并输出答案. 事件级片段表示使得模型在多变环境中更容易定位到关键事件.

    2)多跳注意力

    多跳注意力机制在视频上进行迭代注意力计算,本次注意力计算结果作为下次注意力计算的输入. 相对于单跳注意力计算,多跳注意力计算可以逐渐细化问题对于视频的注意,以逐步引导注意到答案的正确位置. 假设k−1次的注意力计算结果为 {h_{{z_{k - 1}}}}({\boldsymbol{Q,V}}) ,多跳计算过程可以表示为

    {y_k} = {y_{k - 1}} + {h_{{z_{k - 1}}}}({\boldsymbol{Q}},{\boldsymbol{V}}), (5)
    {y_0} = q. (6)

    使用问题q初始化 {y_0} ,问题与视频产生的注意力与问题级联,作为新的问题特征与视频特征再次进行注意力计算,如此迭代计算以更新 {y_k} . 使用最终更新后的问题特征与视频特征产生最后的问题引导的视频注意力.

    基于对象属性在视觉理解任务中的有效应用,Ye等人[55]提出了一种基于属性增强的注意网络模型. 该模型利用对象属性来增强视频表示,然后引入多步推理过程,对视频进行多跳注意力计算. 在文献[55]中强调了对象属性对于VideoQA任务的重要性,但没有很好地利用问题中的每个词与视频每个部分的关系. 为了能够根据问题找到视频不同部分之间的上下文关系,Chowdhury等人[56]提出分层关系注意力模型. 该模型在每个时间步上以问题的每个词嵌入和视频的动作与外观特征作为注意力模块的输入,注意力模块的输出与问题编码后的特征一块传递到关系模块,其注意力模块借鉴于文献[48]. Zhao等人[57]提出了多流分层注意力上下文网络,和文献[56]中的问题与视频不同部分具有上下文关系类似,Zhao等人认为对话具有双层顺序关系,所以使用层次注意力上下文网络对其进行分层建模,与问题特征结合生成上下文感知问题表征.

    为了同时利用视频的空间特征和时序信息,部分方法采用注意力机制对时-空信息进行建模. Zhao等人[58]提出了一个分层时空注意网络模型r-STAN,该模型根据目标对象与问题分别从空间层次与时间层次联合学习关键帧的视觉特征表示,并且在网络中加入了多步推理过程来进一步提升模型性能. Song等人[59]利用空间注意力完成多重逻辑推理操作,利用时间注意力捕捉长时间依赖并收集完整的视觉线索. 其中时间注意力模块使用的是经过改良的GRU,称为ta-GRU(temporal-attention GRU),将时间注意力与其隐藏的状态转移过程关联起来,通过捕捉长时间依赖性,获取更完整的时序视觉线索. 此外,Jiang等人[60]提出问题引导时空上下文注意的网络(question-guided spatio-temporal contextual attention network,QueST)模型. 该模型从时间和空间2个维度引入视觉信息对问题信息进行协同建模,然后从2个维度挖掘与问题相关的视觉信息.

    区别于以往文献[45, 48]中提出的方法,将外观与动作分别做单独处理,Yang等人[33]提出了问题感知管道交换网络(tube-switch network,TSN),其注意力模块是基于多模态分解双线性池(multi-modal factorized bilinear pooling,MFB)[62],可以对外观和动作进行同步注意力机制,而更新模块可以逐步细化多层TSN中的关注点,交换模块则根据问题在每个推理步骤中自适应地选择外观或运动管道作为主特征,另一个特征作为支撑特征用于丰富主特征,指导多步推理过程中的注意力细化.

    现有模型对于VideoQA任务只提供答案,并未针对答案提供可解释的依据. Liang等人[61]提出了一种聚焦视觉与文本注意力(focal visual-text attention,FVTA)模型,该模型可以预测答案的同时,给出视觉和文本证据以解释推理过程. 图8展示了FVTA与传统注意力的区别,模型从问题、文本与视觉3个维度进行关注,应用于3维张量,而一般的注意力模型应用于矢量或矩阵. 该模型的核心在于视觉与文本的注意力层,其在每个时间步上进行多跳注意,跨越多个序列,充分利用了多时间步、多序列的特质. FVTA注意力机制特有的性质使其既考虑了视觉与文本序列的内相关性,又考虑了交叉序列的相互作用,保留了序列数据中的多模态特征表示而不丢失重要信息.

    图  8  FVTA和传统注意力的比较[61]
    Figure  8.  Comparison of FVTA and traditional attention[61]

    3)多模态注意力

    VideoQA模型需要处理的数据包含多种模态,模态内与模态间往往存在很多关联信息. 对于模态内的关系,使用由注意力机制演变而来的自注意力来挖掘自身内部信息特征得到相关性;对于模态间的关系,通常使用共同注意力机制来获取,例如问题引导视频注意力与视频引导问题注意力. 此外,对于包含字幕的视频,还将存在字幕引导的问题注意力与问题引导的字幕注意力. 模型通常包含但不仅限于这2种注意力机制,对于注意力模块的输入可以按需调整.

    Xue等人[63]提出了一种基于视频与问题共同注意力机制的方法. 该方法提出的注意力机制分为问题引导的视频注意力与视频引导的问题注意力,以及将两者进行整合的统一注意力. 与文献[63]类似,Chu等人[64]进一步提出了重看与重读机制,实质上也是视频与问题的共同注意力. 两者组合的遗忘观察模型为共同注意力模型,更好地利用了视频的时间信息和答案的短语信息. Gao等人[65]提出了一种结构化双流注意力网络(structured two-stream attention network,STA)的模型,不同的是该模型由多层共同注意力网络组成.

    然而由于视频的复杂性与时序性,仅仅将共同注意力机制应用到VideoQA中往往效果很差. 针对这一问题,Li等人[66]提出具有多样性学习的可学习聚合网络(learnable aggregating net with diversity learning,LAD-Net),该网络使用独特的多路径金字塔式共同注意力机制. 多样性学习是为了处理视频复杂的特征,将视频特征与问题特征以不同维度的特征表示进行多次共同注意力学习,再利用惩罚机制进行多样性学习.

    共同注意力机制能够较好地捕获了模态之间的关系,而对于模态内关系的内部依赖刻画不足. Li等人[67]将自注意力机制与共同注意力机制结合,提出了位置自注意力和共同注意力(positional self-attention with co-attention,PSAC)模型,PSAC模型结构如图9所示. 位置自注意力通过关注同一序列中的所有位置,然后添加绝对位置的表示来计算每个位置的响应. 同时利用共同注意力机制以使模型能够同时考虑相关的视频和文本特征,从而消除了不相关的视频和文字信息,确保了正确答案的生成.

    图  9  PSAC模型结构[67]
    Figure  9.  The structure of PSAC model [67]

    部分方法不仅限于将注意力机制应用到视频与问题2种模态,而且考虑了字幕与问题之间的注意力. Kim等人[68]提出了一种多模态双重注意力记忆(multimodal dual attention memory,MDAM)模型. MDAM中的双重注意力与多模态融合是其关键所在. 双重注意力机制的设计思想来源于Transformer. 自注意力模块用于学习预处理帧与字幕潜在的可变信息. 多头注意模块在给定问题下根据自注意力模块的输出来找出与问题相关的潜在信息. 与文献[68]相比,Lei等人[69]提出的网络增加了一个视觉概念特征. 该网络分为3流进行独立处理,将区域视觉特征、视觉概念特征和字幕特征分别与问答对进行基于注意力机制的特征融合,每个处理流均使用上下文匹配模块[75-76]和Bi-LSTM策略. 该方法并没有充分地考虑到视频和字幕之间的交互以及视频中的对象关系,对于多模态推理的能力有所欠缺. 针对文献[69]中的方法不足,Li等人[70]提出关系感知分层注意力网络,在引入视觉概念的同时充分考虑了对象之间的动态关系和交互理解. 该网络使用基于GAT[77]编码器建模对象之间的空间和语义关系,并采用问题引导的层次注意力模块捕捉多模态对象的静态和动态关系,最后利用自注意力机制进行多模态融合以突出各模态本身的重要性.

    利用多模态注意力机制来定位问题相关的关键时刻,然而关键时刻定位所需的模态可能与答案预测所需要的模态不同. Kim等人[71]提出模态转移注意力网络(modality shifting attention network,MSAN),它很好地解决了模态转换问题. MSAN包含2个组件,即时刻提议网络(如图10中的②)与异构推理网络(如图10中的③). 前者用来定位具体时刻,利用注意力机制对上下文与假设进行联合建模;后者使用多模态注意力机制来预测答案,它引入异构注意力机制来考虑模态间和模态内的相互作用. 同时也提出了模态重要性调制(如图10中的①)来给定2个组件中每个模态的权重.

    图  10  MSAN模型的关键模块[71]
    Figure  10.  Key modules of MSAN model[71]

    与传统的注意力机制不同,Jin等人[72]提出了一种新的多交互注意力机制. 多交互在该模型中指的是视觉信息与文本信息的交互,以及多模态中多层次交互,即帧级和片段级2种类型的交互,其与Transformer模型结构相似. 该模型既考虑了视频中的动态特征,又考虑了不同级别的句子表示,这对模型的推理起到关键作用.

    Kim等人[73]提出双级注意力机制,分别是词/对象级与帧级. 然后以自注意力和交叉注意力机制融合视频与密集字幕来进一步改进模型的时间定位,最后通过门控机制选择信息量最大的帧. 视频中密集字幕的引入相比于单个图像字幕能够提供更有用的线索来回答问题. 基于文献[73]提出的模型,Chadha等人[74]在其输入端加入了常识知识库,从输入视频中的帧特征来生成对应常识性特征与原视频特征连接. 这些常识性特征可以帮助模型更好地感知视频中事件之间的关系,从而提高模型在常识推理的视频任务中的表现.

    本节从单跳注意力、多跳注意力与多模态注意力3个互相独立又存在包含关系的方面对基于注意力的模型进行了详细介绍. 单跳注意力仅能突出视频与问题的浅层关系,深层关系则需要视频与问题的多跳注意力递进挖掘. 而多模态注意力除了关注视频与问题的交互权重之外,同时考虑各模态的自注意力以及视频与问题,字幕与问题之间的共同注意力,充分探索了多模态中模内关系与模间关系. 整体来讲,基于注意力的模型有着低复杂度且与时序无关的特点,也说明该类模型无法捕捉位置信息,即不能学习视频与问题序列中的顺序关系.

    ​ 在VideoQA这一长序列学习任务中,模型需要记忆更多的视频内容,并在答案推理时,根据问题在记忆的多个时间帧信息中进行准确定位. 现有的大多数机器学习模型都缺乏能够与推理无缝结合的长期记忆单元. 虽然基于RNN的方法可以进行序列学习,但受其记忆单元本身的特性影响,不能准确完整记忆长序列内容. 为了解决这一问题,研究人员探索使用记忆网络来进行长序列学习和推理. 本文将基于记忆网络的模型分为静态记忆网络[31-32,78-81]和动态记忆网络[34-35, 82-86].

    1)静态记忆网络

    MemNN由Weston等人[12]提出,被用于文本问答. 该网络的核心思想是构建一个可以读写的记忆组件,同时建立故事、问题与答案之间的关系模型. MemNN模型需要支持答案的事实进行监督训练,然而现有数据集并不包含答案对应的事实支撑. 因此,Sukhbaatar等人[78]提出了端到端记忆网络(end-to-end memory network,MemN2N),同样用于文本问答. 与MemNN不同的是,该网络使用输入输出对进行端到端的训练,所以MemN2N仅仅需要弱监督训练模式,更普遍地适用于现实环境.

    受ImageQA任务的启发,Zeng 等人[79]进一步对MemN2N模型进行扩展,提出了拓展型端到端记忆网络模型E-MN,将其原始输入修改为由帧序列组成的视频,使用双向LSTM对帧表示序列进行编码,捕获连续帧中动作之间的时序关系,提高了模型对时间信息的感知能力. 但是,由于视频包含了丰富多样的数据,简单的扩展模型并不能很好地利用它们. 与文献[79]类似,Tapaswi等人[80]基于MemN2N模型进行修改. 为了应用于更大规模的MovieQA数据集,他们将原模型的词嵌入替换为Word2Vec预训练的词嵌入来减少训练参数,并学习一个共享的线性投影层将视频和问题映射到一个低维的公共空间.

    Kim等人[31]提出了一种深度嵌入记忆网络(deep embedded memory network,DEMN)用来解决视频故事问答任务,该模型对记忆网络的泛化成分进行了优化. 该网络将视频的场景与对话作为重点,将两者组合成视觉语言特征对,由其学习场景嵌入与对话嵌入. 然后以句子形式将场景和对话结合起来,从视频场景与对话的联合流中重新构建视频故事,将其储存在长期记忆组件中.

    由于DEMN记忆网络模型是将每个记忆槽视为独立的内存块,因此忽略了相邻记忆块之间的相关性. Na等人[32]提出了一种用于电影故事问答的可读写记忆网络(read-write memory network,RWMN),该网络的卷积分层网络由多个更高容量和更具灵活性的读写内存构成,并采用连续的方式存储,增强了存储单元之间的关联性进而使得后续推理更加准确. RWMN的输入与DEMN相似,推理和回答预测部分与MemNN相似. 与其他记忆网络的不同之处在于该模型记忆阵列的维数在处理过程中减小,而其他模型的维数是不变的.

    以上基于静态记忆网络的方法将不同模态信息保存于不同的记忆块中,并没有对需要记忆的特征做预处理或增强处理. Cai等人[81]提出了一种基于递归神经网络和自注意力模块的模型. 其核心是特征增强模块与注意力机制. 特征增强利用视觉特征与问题特征通过记忆机制相互增强,两者进行细粒度的模态交互后,再记忆到内存中. 从2个记忆模块输出问题引导的视觉特征与视觉引导的问题特征,作为自注意力的输入,来捕获序列的全局上下文. 然后再使用互注意力机制进行2种特征的互相关注. 这种跨模态的特征增强记忆方法,可以实现在没有冗余信息的情况下有效记忆.

    2)动态记忆网络

    为了能够解决长序列的动态记忆和推理问题, Kumar等人[82]提出动态记忆网络(dynamic memory network, DMN),用于解决基于文本问答问题. 其核心处理模块为情景记忆模块,它由注意力模块与循环网络组成,以问题、上一次记忆的内容和事实表征作为当前迭代的输入,用来更新情景记忆内容,并通过多次迭代更新得到最终的答案预测. Xiong等人[83]在DMN模型之上做了进一步优化,提出了动态记忆网络优化模型DMN+. 该优化模型将DMN中单向的 GRU 换成了双向GRU,将原来记忆更新使用的GRU替换成ReLU,不但简化了模型,还提高了模型的准确率. 与静态记忆网络相比,动态记忆网络能够通过注意力机制来迭代更新记忆内容,过滤掉不相关的记忆内容.

    考虑到DMN/DMN+缺乏动作分析与时序建模,Gao等人[34]提出了一种基于DMN/DMN+的动作与外观共同记忆网络模型. 具体来讲,将视频的动作特征和外观特征输入时间卷积和反卷积神经网络,生成多级上下文事实. 这些上下文事实被用作记忆网络的输入,共同记忆网络拥有2种独立的记忆状态,一种用于动作,另一种用于外观. 最后,使用共同注意力机制解决动作与外观信息的交互和联合建模. 与文献[34]相同,Fan等人[84]提出的异构记忆增强多模态注意力模型同样考虑了视频的动作特征与外观特征,不同之处在于该模型能充分地利用视觉特征和问题特征与记忆内容的相互作用来学习全局上下文感知表征,模型架构如图11所示. 模型第1部分将外观特征和运动特征融合起来,同时学习时空注意力,解决了多数方法未能正确识别注意力的问题. 第2部分设计了新的网络结构,将问题编码器和问题记忆网络整合起来,主要是为了解决有较为复杂语义且需要推理的问题. 最后一部分,设计了一个多模态融合层,可以有效地将视觉特征和问题特征与注意力权重结合起来,并支持多步推理.

    图  11  异构记忆增强多模态注意力模型[84]
    Figure  11.  Heterogeneous memory enhanced multimodal attention model[84]

    针对电影类的VideoQA任务,视频中包含大量的字幕信息,这些字幕对问答尤为重要. Wang等人[35]提出了一个由静态词记忆模块和动态字幕记忆模块组成的分层记忆网络(layered memory network,LMN),能够学习电影内容的分级(帧级与片段级)表示. 首先,静态词记忆模块利用帧区域视觉特征映射到单词空间,得到帧级语义表示. 然后,通过动态字幕记忆获得电影片段中特定帧的语义表示,即片段级表示. 片段级表示是从词空间到句子空间的转换,从而可获得大量的语义信息. Wang等人[35]同时提出了静态词记忆的多跳机制、动态字幕记忆的更新机制以及问题引导下的字幕表示机制,这3个机制对模型的延伸方法去除无关信息起到非常大的作用,也大大提高了模型的推理能力. 此外,一般的多模态融合方法[87-88]只关注于建模不同模态的交互特征,这些方法对问题是不知晓的,因为在模态融合过程中问题与答案是不参与其中的,所以Kim等人[85]提出了渐进注意力记忆网络(progressive attention memory network,PAMN). PAMN包含3个主要功能模块:①递进注意力机制,找出与回答问题有关的时间部分;②动态模态融合,自适应地确定每个模态的贡献来聚合每个记忆模块的输出;③信念修正答案方案,该方案基于已有的问题和注意力对每个候选答案的预测分数进行连续修正.

    Yu等人[86]提出了由2个不同的记忆网络组成的多模态分层记忆注意力网络框架. 该网络又可以称为一种粗粒度到细粒度的记忆体系结构,它能完成从粗粒度到细粒度的推理过程. 第1层为顶部引导记忆网络,浅层次上过滤与问题不相关的信息. 第2层为底部增强的多模态记忆注意力网络,该网络负责进行深度推理. 双层记忆网络的共同协作能够学习到视频帧之间的细粒度注意力,从而提升问答的质量.

    总的来看,记忆网络的引入主要解决了模型对视频长序列建模的问题,在基于注意力突出重要内容的基础之上又保证模型不遗漏其他用于推理的必要信息. 静态记忆网络虽然能够完成对长序列信息的记忆,但并未对其记忆内存2次或多次加工,即其保存的信息往往是粗粒度的. 动态记忆网络则是对静态记忆网络的优化,通过多次注意力使得记忆内容更加精细,更有助于模型推理. 但是记忆网络需要较大存储空间与读写开销,因此模型计算量也相对很大. 同时,该类方法建模视频复杂的时空结构的能力较弱,在处理时空推理的问题上表现不佳.

    近年来,图神经网络在知识图谱与社交网络等领域取得了重大突破[89-90]. 图神经网络可将数据看作图中节点,节点与节点间通过边进行连接,并通过消息传播对节点间的依赖关系进行建模. 同时,图神经网络不仅能很好地处理结构化数据,而且能够处理像视频这样的非结构化数据. 视频包含丰富的时空相关的动态属性,在一个视频中,帧级信息能够提供视频的空间结构,例如对象的位置信息与动作信息,而片段级信息能够提供视频的时间结构,例如发生动作的序列以及状态的转换. 为了能够更进一步地提高VideoQA的性能表现,对视频时空结构的联合推理十分必要. 因此,研究者通过利用图神经网络来挖掘视频中的时空依赖关系,更好地建模对象间的关系信息.

    Huang等人[91]提出了一个位置感知图卷积网络(location-aware graph convolutional network,L-GCN)来建模视频中被检测对象之间的关系. 视频编码流利用对象位置感知图来理解视频内容. 基于对象的位置感知图既考虑了对象之间的交互,又考虑了对象的时间位置信息. 但是该方法比较依赖于学习模态之间的位置关系,并没有挖掘到问题的深层次语义关系.

    与文献[91]提出的方法不同,Jiang等人[92]提出了异构图对齐(heterogeneous graph alignment,HGA)网络,把问题与视频特征融合形成一个异构图,再送入GCN中. 该网络将多模态因素视为统一的异构图节点,并通过对齐策略来生成加权邻接矩阵,构造多层图卷积网络进行多模态交叉推理. HGA通过建模多种模态之间的复杂相关性,促进了模态间和模态内的相互作用以及跨模态推理.

    虽然HGA同时利用了视频的外观特征与动作特征,但是并没有充分挖掘两者分别与问题的深层关系. Seo等人[93]提出了动作-外观协同网络(motion-appearance synergistic network,MASN),将GCN与注意力机制相结合. 前期利用GCN分别对外观特征与动作特征进行时空建模,后期以问题为引导的视觉表示为输入,利用注意力机制生成分别以外观和动作为中心的特征及混合特征,最后通过融合模块来调节3种信息的权重.

    现有模型HGA与MASN直接将外观特征与动作特征进行交互,没有充分利用异构模态的交互. Park等人[94]提出了一种称为Bridge2Answer的方法,Bridge2Answer模型核心组件如图12所示. 该方法采用GCN思想构建表观图、运动图与问题图,并充分利用它们之间的交叉关系来推断答案. 其中以问题图作为外观图到动作图和动作图到外观图的交互桥梁,利用问题的合成语义以调节外观图与动作图之间的关系. 由于问题图的结构可以反映单词之间的语义依赖关系,因此问题条件的视觉节点能够有效地传递到问题边缘的相关视觉节点.

    图  12  Bridge2Answer方法的图交互部分[94]
    Figure  12.  The graph interaction part of Bridge2Answer method[94]

    此外,为了在执行推理时进一步挖掘外观特征和动作特征关联和互补的关系,Wang等人[95]提出了双视觉图推理单元(dual-visual graph reasoning unit,DualVGR),模型以迭代方式堆叠该单元执行多步推理. DualVGR通过查询惩罚模块过滤掉不相关片段的特征,使用多视图图网络提供上下文感知的特征表示. 多视图图网络分别处理外观、动作及两者之间关系的特征图,对于外观图与动作图,通过自注意力机制更新其邻居节点的表示,对于两者关系图则基于AM-GCN[96],通过执行图卷积操作为各自寻求一个特定的嵌入和一个公共嵌入.

    为了更关注于视频中的对象及其交互,Dang等人[97]提出以对象为中心的视频表示作为构建视频时空结构基础的方法,该方法的重点是将视频抽象为时空中存在的动态交互对象. 问题条件下的对象特征通过GCN与上下文对象特征进行交互,整合动态对象图的时间维度信息,创建一个由N个对象组成的无序集合. 最终,视频被抽象为一个时空图,其空间和时间依赖性取决于问题. 以对象为中心的视频表示的输出用作通用关系推理引擎的知识库,并应用于提取问题的相关视觉信息.

    与MASN,HGA,DualVGR相比,Jiang等人[98]提出的轻量级视觉语言推理(lightweight visual-linguistic reasoning,LiVLR)模型,在同一数据集上较大程度地减少了模型参数的同时又提升了模型的性能. 该模型主要由基于GCN的视觉编码器、语言编码器与多样性感知视觉语言推理模块(diversity-aware visual-linguistic reasoning module,DaVL)组成. 视觉和语言编码器最终生成多粒度的视觉和语言表示,由于模型考虑了视觉表征和语言表征在不同语义层次上的多样性,所以使用基于GCN的DaVL模块进一步编码和捕获节点之间的关系,并输出联合问题相关表征.

    现有基于GCN的方法均在相同尺度的视频片段中寻找答案,然而这些方法往往会导致获取的信息不足或冗余的问题. Jiao等人[99]提出了一种多尺度递进注意力网络(multi-scale progressive attention network,MSPAN),将GCN与注意力结合来实现跨尺度视频信息之间的关系推理,MSPAN网络结构如图13所示. 通过不同核大小的最大池化得到多尺度图,多尺度图中的每个节点通过GCN进行节点更新,再利用逐步注意力机制来实现跨尺度图交互过程中多尺度特征的融合. 这种跨尺度特征交互能够挖掘不同尺度视频片段中对象之间的深层次关系.

    图  13  MSPAN网络结构[99]
    Figure  13.  MSPAN network structure[99]

    以往方法一般只研究对象间或帧间的单一交互,不足以理解视频中复杂的场景. Peng等人[100]提出了一种递进图注意网络模型(progressive graph attention network,PGAT),它通过图注意网络以渐进方式探索视频的对象级、帧级和片段级的多重关系. 这些不同级别的图以循序渐进的方式连接起来,以理解从低级到高级的视觉关系. Liu等人[101]将记忆机制结合到图网络中,提出了视觉图记忆与语义图记忆,并认为语义关系与视觉关系对于推理一样重要. 这2种图记忆机制通过可学习的视觉到语义和语义到视觉的节点映射相互协作和交互. 最后,构建了从对象级到帧级的层次结构,从而实现了层次的视觉语义关系推理.

    本节主要介绍了基于图网络的模型,该类模型之所以能够达到较好效果的原因在于它能够直接对视频内容结构进行时间和空间的统一建模,较容易捕获到视频中各对象之间的关系,能够学习到更好的节点表示,对后续时空相关的推理问题起到较大作用. 由于GCN需要将整个图放到内存和显存,多层GCN将会有很大开销,模型训练耗时也会很久.

    针对RNN等序列模型不适合处理序列的长期依赖以及不易于并行化数据处理的问题,研究人员提出了Transformer[15]. Transformer通过其内部自注意力机制能以有限的层数建模长期依赖关系,而且相比于RNN,Transformer能够利用分布式GPU进行并行训练,提升模型训练效率. BERT实际是Transformer的复合体,其最早被应用于自然语言处理领域[16]. 随着Transformer与BERT的流行,越来越多的模型开始将二者引入到各个领域,并取得了令人惊叹的结果. 当前存在的大部分用于VideoQA的模型都是基于RNN的模型,如LSTM,然而类似这样的模型可能无法捕获长序列之间的关系. 因此研究者尝试将Transformer和BERT引入到VideoQA任务上,并取得了显著的效果.

    Yang等人[102]提出使用BERT对视频中的视觉概念与文本内容进行编码来获得视频场景的视觉信息与文本信息. 同时,Urooj等人[103]提出了MMFT-BERT模型,采用BERT单独处理多模态中的每一个模态,然后使用一个新设计的基于Transformer的融合方法进行后期融合. 该方法考虑到了早期对不同模态的单独处理,将模态融合放在后期,这样处理使得模态更能友好交互,突出关键信息. 并且该方法也是第一个使用Transformer进行模态融合的方法.

    文献[104]提出的ROLL模型的3个独立分支read,observe,recall均是使用Transformer提取语言特征建模,但是该模型依赖于知识库. 与之相比,Engin等人[105]提出的DialogSummary方法则不需要这些外部知识. 该方法视频描述的生成借鉴于ROLL,其核心思想是从视频中的原始数据提取所需知识,将以往人工生成知识的过程替换为从视频任务原始对话中自动生成情节摘要. 模态处理与MMFT-BERT类似,每个模态由BERT进行独立编码,不同的是该方法采用一个相对简单的模态融合方法,而MMFT-BERT则采用了一种基于Transformer的多模态融合方法.

    VideoQA评估任务大多仅限于单个单词的开放式答案或从多个短语中选择一个短语,限制了模型的应用场景. Sadhu等人[106]将VideoQA任务作为填充短语任务,为了能够评估短语式答案,模型计算预测答案对比空字符串的相对改进. 基于此任务,提出了5个基准模型,其中VOG-QAP与MTX-QAP综合表现突出. VOG-QAP 使用了额外的短语编码器并在多模态特征上应用Transformer. MTX-QAP与ActBert具有类似的架构,但它用一个普通的Transformer替换了ActBert的TNT,在一个Transformer中联合编码语言和视觉特征.

    与文献[106]动机类似,Castro等人[36]提出的T5+I3D模型同样是以生成式答案解决填词或短语的任务. 该模型属于早期融合模型,模型的编码与解码均基于Transformer. 此外,Castro等人[36]使用T5(编解码Transformer网络)对模型进行初始化,并结合I3D提取的视频特征使得模型性能略优于后期融合模型.

    文献[107]中基于2D的场景图忽略了视频本质是发生在3D空间中的事件,Cherian等人[108]提出基于Transformer的(2.5+1)D时刻场景图的方法,该方法的处理流程如图14所示. 他们将视频帧2D画面转换成2.5D(伪3D)场景图,然后构造一个包含静态与动态子图的 (2.5+1)D时空场景图表示,以更好地捕捉视频中的时空信息流. Transformer将场景图嵌入到时空分层潜在空间中,以不同的粒度捕获子图及其交互,其核心思想是使用图节点的时空接近度来定义相似性.

    图  14  (2.5+1)D视频问答推理流程示意图[108]
    Figure  14.  The schematic illustration of (2.5+1)D VideoQA reasoning pipeline[108]

    与文献[99]的思想有些相似,Peng等人[109]提出的PTP同样利用视频中的多尺度信息. 将视频按不同级别构建时间金字塔,高层级比低层级具有更丰富的局部信息,低层级比高层级具有更完整的全局信息. 该模型包括问题Transformer和视觉推理2个模块,两者均在Transformer上进行了改进, 在每个模块中引入了一种多模态注意力机制来辅助问题与视频交互,并在不同层次的信息传递中采用残差连接. 问题Transformer用来构建从粗粒度到细粒度的问题词与视觉内容之间的多模态语义信息,在问题特定语义的指导下,视觉推理模块从问题与视频之间局部到全局的多级交互中推断出视觉线索.

    以上基于Transformer的部分模型在VideoQA任务上实现了最优性能比基于图网络模型更优的性能,这归因于其自注意力结构的设计. Transformer主要由多头注意力机制组成,且相较于传统RNN, CNN, Transformer在大模型和大数据方面具有强大的可扩展性且架构灵活. 然而正因其对大数据训练的依赖,使其在小规模数据集上泛化性与自适性较弱.

    预训练模型最早是在自然语言处理和计算机视觉等单模态领域崭露头角,并在许多下游单模态任务中也被证实它的有效性. 后来,研究者们将预训练模型应用于多模态任务,并取得了重大进展[110-111]. 目前主流的多模态预训练模型是视觉-语言预训练模型,其通常利用辅助任务从大规模未标注或弱标注数据中自动挖掘监督信号来训练模型,从而学习通用表示. 这些预训练模型通过在下游任务上使用少量人工标记数据进行微调就能实现令人惊讶的效果.

    最近一些方法使用带有图像字幕的数据集(如COCO[112]和Visual Genome[113])或视频字幕的数据集(如HowTo100M[114])来预训练多模态视觉语言表示. 这些方法绝大部分是基于Transformer之上在大数据集上进行预训练,它们通常使用通用目标进行优化,例如掩码语言损失、图像-文本匹配损失以及图像标题生成损失等. 以下介绍的预训练模型部分是针对于特定VideoQA任务的,其余则是与下游任务无关的预训练模型.

    Kim等人[115]提出了自监督预训练方法,有效地利用了数据集的额外优势以及学习更好的特征表示. 自监督预训练阶段不需要额外的数据或注释,在给定视频与字幕的条件下来预测相关问题而非预测答案,这样使得模型能够学习到较好的权重. Yang等人[116]提出针对特定任务的预训练模型VQA-T(VideoQA-Transformer),对于目标VideoQA效果的提升有更大帮助. 该模型的2个分支均是基于Transformer,可以很容易地对不同的下游VideoQA数据集进行微调,这些数据集可能包含训练中没有出现的新答案.

    相比于特定任务的预训练模型,下游无关的预训练模型更加灵活、应用更广. Zhu等人[37]提出了用于多种视频和语言任务的预训练模型ActBERT,该模型从无标记数据中进行联合视频与文本表示的自监督学习. ActBERT模型的核心为TNT(TaNgled Transformer block),其包含3个Transformer来编码3个来源特征,即全局动作特征、区域对象特征和语言特征. 为了增强视觉特征和语言特征之间的相互作用,ActBERT在语言Transformer中注入视觉信息的同时,在视觉Transformer中加入语言信息. 通过跨模态的交互作用,TNT可以动态地选择有用的线索进行目标预测. 基于此模型,Zhu等人[37]提出了4个预训练任务:掩码语言建模、掩码动作分类、掩码目标分类和跨模态匹配.

    文献[37]的模型设计是对BERT的直接改编,简单地将视觉和文本特征拼接作为输入,而失去了视频和文本模式之间的时间对齐. Li等人[117]提出的HERO模型以一种分层的方式对多模态输入进行编码,其包含2层Transformer. 第1层为跨模态Transformer,用于融合字幕与其对应的局部视频帧;第2层为时序Transformer,用于获取视频每一个片段的全局上下文嵌入. 该分层模型首先在帧级层面挖掘视觉和文本局部上下文,然后将其转化为全局视频级时间上下文. 基于此模型提出了4个预训练任务,相对于常见的掩码语言建模与掩码帧建模增加了视频与字幕匹配和帧顺序建模.

    与文献[117]提出的预训练任务相似,Zellers等人[118]提出了一个通过大规模无标签的视频片段以自监督方式训练基于Transformer的预训模型MERLOT. 视觉与语言特征均加入了位置嵌入,然后由基于RoBERTa[119]结构的Transformer对视觉和语言进行联合编码,并设计了帧与字幕匹配、掩码语言建模和帧顺序建模3个预训练任务.

    现有的部分工作如文献[37]提出模型离线提取密集的视频特征和文本特征,然而从视频帧的全部序列中提取特征会导致对内存和计算的过多需求. Lei等人[120]提出了一个通用的预训练模型CLIPBERT,其核心思想为稀疏采样与密集推理,图15为常见的视频-语言学习方法和 CLIPBERT的比较. CLIPBERT将来自同一视频的不同片段子集用于不同的训练步骤,因而其在一定程度上提高了模型的泛化能力. 此外与文献[37, 117]不同的是,该模型使用的是图像文本数据集进行的预训练,实验结果表明图像文本预训练同样有益于视频-文本任务.

    图  15  流行的视频和语言学习范式和 CLIPBERT之间的比较[120]
    Figure  15.  Comparison between popular video-and-language learning paradigm and CLIPBERT[120]

    受文献[120]中稀疏采样策略的启发,Yu等人[121]提出了基于CLIPBERT的孪生采样与推理的方法(siamese sampling and reasoning,SiaSamRea). SiaSamRea的思想为多个片段应该相互依赖,应将上下文片段之间的相互依赖知识融于网络推理中,以在同一视频中捕获相似的视觉和关键语义信息. 所以该方法在稀疏采样的基础之上进一步采样了多个相似的片段,来学习片段之间的相互关系. 不同于以往的相关工作如CLIPBERT,在同一个视频中挖掘它们的上下文知识,SiaSamRea模型中的每个视频-文本对都被独立地编码到网络中. 充分地利用了片段之间丰富的上下文信息,可以进一步提升模型推理的准确性.

    现有多模态学习任务中,通常会因存在噪声而使模型无法达到预期效果. Amrani等人[122]提出了一种去噪声的方法,使用自监督方式去训练一个去噪模块. 在多模态数据中,当2个或多个模态不具有相同语义含义时样本认定包含噪声. 因此,该模型将噪声估计简化为多模态密度估计任务,利用多模态密度估计,又提出了一种用于多模态表示学习的噪声估计组件,该组件严格基于不同模态之间的内在相关性. 该方法从去噪声的角度,在多模态任务中一定程度上提高升了性能.

    此外,Luo等人[123]认为掩码输入将不可避免地为掩码建模与跨模态匹配等任务引入噪声,所以提出了对比跨模态匹配和去噪的方法CoCo-BERT. 该方法包含2个耦合的视频/句子编码器,同时利用屏蔽和非屏蔽的多模态输入,从多模态对比学习的角度加强跨模态关联. 模型的核心是通过对比方式同时追求模态间匹配和模态内去噪,并利用掩码和非掩码输入来加强跨模态推理.

    Seo等人[124]提出了一个多任务的预训练模型CoMVT,该模型的目标主要是基于当前的视频片段和对应字幕来预测下一段话语,微调后的模型在下游VideoQA上取得了具有竞争性的结果. CoMVT有2个关键点:1)虽然该模型没有像CLIPBERT稀疏采样,但其利用注意力机制聚合冗余特征,从而构造出更紧凑的视觉特征;2)使用一个共同注意力TransformerCoTRM[125]进行跨模态融合. CoTRM由双流组成,每一个流由2个TRM组成,其中一个用于模态间特征交互,另一个用于模态内特征交互. 2个流本质上分别处理每个模态,允许通过每个流中TRM的不同模态特征进行特定的操作和表示.

    与先前相关工作提出的预训练任务不同,Fu等人[126]提出了掩码视觉标识建模的预训练任务. 视频帧被“标记”为离散的视觉标识,用于重建原始视频帧. 在预训练期间,沿空间和时间维度屏蔽了部分视频输入,模型学习恢复这些屏蔽部分的离散视觉标记. 相对于掩码语言/帧建模,模型需要在离散空间上进行预测,这避免了与文献[117]中类似的特征维度的过度训练问题. 此外,所提出的VIOLET(video-language Transformer)模型并不是简单地均值池化或对一系列单个帧特征进行连接,而是包含Video Swin Transformer[127],它可以显式地为视频语言学习建模视频时间.

    如果预训练数据集和下游数据集之间存在领域差距,当前流行的“先训练后微调”的视觉和语言模型泛化能力就会变弱. Zhou等人[128]系统地研究了视频语言预训练与微调模型中的领域差距问题,并提出了一个任务自适应的视频语言预训练模型,通过过滤和调整源数据到目标数据,然后进行领域聚焦的预训练,这有效地缩小了源数据(用于预训练)和目标(用于微调)数据之间的领域差距.

    本节主要介绍了预训练模型在VideoQA任务中的应用,它们主要通过基于大规模数据进行预训练来学习不同模态之间的语义对应关系. 目前,基于Transformer的预训练模型取得了VideoQA任务的最佳性能. 这归因于预训练模型不仅能够充分利用广泛的网络资源,而且还能完美地解决人工标记数据较为复杂的问题. 预训练模型通常是通过微调将知识转移到下游任务,随着模型规模的不断增加,每个下游任务均有不同的微调参数,将导致参数学习效率低下,同时多种下游任务也使得预训练和微调阶段的设计变得繁琐.

    除2.2.1~2.2.5节所述的5种VideoQA任务的解决方法外,还有许多研究者们提出了不同于上述方法的模型来解决该问题,同时也达到了具有竞争性的表现. 例如基于基础构建单元的模型、基于神经符号的推理模型、基于强化学习的模型、引入外部知识的模型、引入音频信息的模型等.

    1)基于基础构建单元的模型

    当前VideoQA任务中的问题类型不受限制,许多模型根据数据集特性来进行设计,导致其在数据形态改变或视频长度改变的数据集上的性能表现不升反降. 为了缓解这一问题,模型需要具备对视觉信息与文本信息深厚的建模能力,学习时空中跨模态信息以对对象、关系和事件进行推理.

    Le等人[129]提出了一种分层次条件关系网络(hierarchical conditional relation network,HCRN). 条件关系网络(conditional relation network,CRN)是HCRN的基础可重用构建块,该单元计算输入对象之间的稀疏高阶关系,然后通过指定的上下文调制编码. 然而,CRN只是专注于单个对象动作的时间推理,不能很好地推广到时空中多个物体相互作用的情景. 与HCRN分层推理结构的设计理念相似,Dang等人[130]提出了一种由OSTR基础单元构建的面向对象时空推理层次(hierarchical object-oriented spatio-temporal reasoning,HOSTR)模型. HOSTR的特点是对象内时间聚集和对象间空间相互交互的划分,从而提高推理过程的效率. HCRN与HOSTR都以通用的可视化推理为目标,两者都忽略了问题的不同部分可能会需要不同粒度级别的视觉信息. Xiao等人[131]设计了分层问题引导图注意网络(HQGA),基于问题条件的图注意力单元(QGA) 通过图的聚合和池化将低层次的视觉信息聚合为高层次的视频元素,并通过堆叠QGA单元在每层注入问题,从而实现多粒度级别的视觉-文本匹配.

    2)基于神经符号的推理模型

    部分模型侧重于对复杂的视觉与语言的模式识别能力,而忽略了蕴含于视频结构中的时序与因果关系. Yi等人[132]提出了基于碰撞事件的视频推理数据集CLEVRER,同时又提出针对于该数据集的模型-结合神经网络和符号的动态推理(neuro-symbolic dynamic reasoning, NS-DR)模型,该模型结合了用于模式识别和动力学预测的神经网络,以及用于因果推理的符号逻辑. NS-DR 将动态规划纳入视觉推理任务中,能够直接对未观察到的运动和事件进行预测,并能够对预测性和反事实性任务进行建模,这将对VideoQA任务有着积极的影响. 然而NS-DR模型需要对视频视觉属性和物理事件进行密集注释,这在真实场景中是不切实际的. Chen等人[133]提出了一个统一的神经符号框架,即动态概念学习器(dynamic concept learner,DCL),它基于对象追踪和语言建模来识别视频中的对象与事件并分析其时间和因果结构,而无需对视觉属性和物理事件(如训练期间的碰撞)进行注释.

    在NS-DR与DCL基础之上,Ding等人[134]提出了基于可微物理模型的神经符号视觉推理框架VRDP (visual reasoning with differentiable physics),它通过从视频和问题对中学习物理模型,并利用显式的物理模型对物体动力学进行建模,基于准确的动力学预测来回答长期和反事实预测问题. VRDP由视觉感知、概念学习器和可微物理模型3个模块组成. 视觉感知模块用于得到物体及其轨迹;概念学习器借鉴于NS-CL[135],负责从物体的轨迹信息和问题对中学习物体的属性;根据物体的轨迹和属性,通过可微物理模拟学习相关物理参数,得到较为准确的物理模型. 模型的神经符号执行器利用了NS-DR和DCL中的方案,通过预测出的物体轨迹和碰撞事件进行逐步显式的符号推理,使得模型具有良好的解释性.

    3)基于强化学习的模型

    迄今为止,用于VideoQA的方法在现实生活中应用性非常弱,原因之一就是应用性强的数据集非常少. Xu等人[136]提出了应用性较强的交通问答数据集TrafficQA,并基于该数据集设计了一种基于动态推理的高效一瞥网络. Xu等人[136]通过6个具有挑战性的任务来训练该网络模型,与现有的VideoQA模型不同,为了减少视频帧之间冗余信息的影响,该模型自适应地确定每一步跳过的帧数和选择的帧位置,以及对选择帧需要分配的计算粒度. 该方法避免了对视频中不相关的片段进行特征提取,从而大大降低了整体的计算成本,实现了推理的可靠和高效.

    4)引入外部知识的模型

    除了利用数据集本身信息之外,数据集外部的知识对问答推理也有极大的帮助. Garcia等人[137]提出的模型ROCK (retrieval over collected knowledge)通过知识检索模块来获取与问题最相关的知识. 知识源来自于他们自己构建的数据集,知识类型为人工注释的句子,知识检索模块通过计算问题与知识的相似性分数来获取有用的信息. Han等人[138]提出了一个利用电影片段、字幕和基于图像的外部知识库来回答问题模型. 图像的外部知识库是他们设计的一个PlotGraphs的数据集,该数据集以图像形式提供回答问题的额外信息. 与文献[137-138]不同,Garcia等人[104]提出了ROLL模型,其获取的外部知识来源于在线的外部知识. 不同于以往人工手动生成场景描述或者故事摘要等,该模型使用无监督方式生成视频场景描述,并且以弱监督方式获取外部知识.

    5)引入音频信息的模型

    以往研究忽略了利用视频中的音频信息,虽然有相关工作利用语音转换字幕系统,但仅限于提取其中的文字信息. Le等人[27]提出的模型VGNMN (video-grounded neural module network)尝试将音频模态加入推理过程,其分为对话理解与视频理解2部分. VGNMN模型由多个负责不同功能的神经网络块组成,形成复合推理结构,实现逐步检索语言和视觉信息的显示推理过程,这种模块化方法可以实现模型更好的性能和透明度. Shah等人[28]提出了三重注意力网络模型,同样也将音频信息整合到VideoQA任务中. 模型利用Mel Spectrograms,SoundNet与WALNet提取3种音频特征,与视频和字幕形成异构信息源,音频、视频、字幕三者分别与问题使用注意力机制来不断更新内存向量. 该模型通过消融实验证明了音频信息的加入有利于VideoQA模型性能提升.

    在1.1节提到,问题大致可以分为开放式问题与选择题2种类型. 开放式问题可以分为开放式单词问题与开放式数字问题,即开放式问题对应的答案是单词或者数字,所以此类问题需要2种解码器. 而选择题则只需要1种解码器.

    对于开放式单词问题的任务,一般视为多标签分类任务,因此使用softmax回归函数. 定义一个softmax分类器,该分类器以多模态融合表示 {\boldsymbol{O}} 为输入,通过计算置信度向量 {\boldsymbol{s}} 从词汇表中选择答案,计算形式表述为

    {\boldsymbol{s}} = {{softmax(}}{{\boldsymbol{W}}^{\text{T}}}{\boldsymbol{O}} + {\boldsymbol{b}}{\text{)}}, (7)

    其中 {{\boldsymbol{W}}^{\text{T}}} {\boldsymbol{b}} 是模型参数. 一般通过交叉熵损失函数或softmax损失函数来训练该解码器,通过 {{\tilde a}} = \mathop {{\text{arg max}}}\limits_{{a \in \mathcal{A}}} {\text{(}}{\boldsymbol{s}}{\text{)}} 得到预测答案.

    对于开放式数字问题的任务,与选择题任务类似,将上下文表示 {\boldsymbol{O}} 输入一个线性回归函数中,与之不同的是,通过舍入函数(舍入到最近整数)输出的是一个整数值答案. 计算形式表述为

    {\boldsymbol{s}} = {round} {\text{(}}{{\boldsymbol{W}}^{\text{T}}}{\boldsymbol{O}} + {\boldsymbol{b}}{\text{)}}, (8)

    其中 {{\boldsymbol{W}}^{\text{T}}} {\boldsymbol{b}} 是模型参数. 通过均方差损失函数来训练该解码器.

    对于选择题任务,1个问题对应多个候选答案,只有1个选项为正确答案. 每一个候选答案将与给定的问题以相同的方式进行处理,最后将得到的融合表示 {\boldsymbol{O}} 送入一个定义的线性回归函数,并为每个候选答案输出一个真实分数. 其计算形式表述为

    {\boldsymbol{s}} = {{\boldsymbol{W}}^{\text{T}}}{\boldsymbol{O}} + {\boldsymbol{b}}, (9)

    其中 {{\boldsymbol{W}}^{\text{T}}} {\boldsymbol{b}} 是模型参数. 通常训练模型的方法都是最小化预测答案与正确答案之间的损失,所以通过最小化成对比较的铰链损失来训练解码器 \max (0,1 + {s_{\text{n}}} - {s_{\text{p}}}) ,其中 {s_{\text{n}}} {s_{\text{p}}} 分别是由错误答案和正确答案计算的分数.

    随着越来越多的研究者们关注VideoQA领域,用于解决此任务的数据集也越来越丰富. 例如以电影与电视剧为视频源的数据集MovieQA[80],TVQA[69],MovieFIB[139],KnowIT VQA[137]等,这些数据集更加注重评测模型对视频与文本的理解能力,以及对故事情节的推理能力. 基于动画类型的数据集SVAQ[59],MarioQA[140],PororoQA[31],Env-QA[53],CLEVRER[132], CRAFT[141]也相继被提出. 该类型视频中的场景相对简单,故事线也较为清晰. 此外,以开放类视频为视频源的数据集有MSRVTT-QA[48],MSVD-QA[48],YouTube2Text-QA[55],TGIF-QA[45],Activitynet-QA[142]等,它们的数据大多来自于YouTube或其他在线网络视频. 这一类数据集更注重于生活场景,对实际应用来讲更具有意义. 各数据集的详细指标如表2所示,部分数据集示例如图16所示,图16中仅展示了视频的1帧,但是所有的问题和答案都属于视频中的一个片段. 对于每个数据集,我们只展示1个问题和相应的正确答案. 下面将对每个数据集进行详细介绍,同时统计了频繁使用的数据集对应的模型实验结果,并进行了对比与分析.

    表  2  各数据集指标对比
    Table  2.  Comparison of Indicators of Each Data Set
    数据集 年份 数据源 视频数 片段数 平均长度/s 问答对 问答类型 问答生成
    MovieQA[80] 2016 电影 408 6771 202 14944 选择题 人工
    LSMDC-QA[143] 2017 M-VAD/MPII-MD 202 118081 200 118114 选择题 人工
    MovieFIB[139] 2017 LSMDC2016 180 118507 4.1 348998 填空题 自动
    YouTube2Text-QA[55] 2017 YouTube2Text 1987 1987 40 99421 选择题/开放问题 自动
    TGIF-QA[45] 2017 TGIF 71741 3 165165 选择题/开放问题 人工/自动
    MSRVTT-QA[48] 2017 MSRVTT 7000 10000 15 243000 开放问题 自动
    MSVD-QA[48] 2017 MSVD 1970 1970 10 50505 开放问题 自动
    Video-QA[79] 2017 在线网络视频 18100 18100 90 175076 开放问题 自动
    MarioQA[140] 2017 游戏视频 187757 选择题 自动
    PororoQA[31] 2017 卡通视频 171 16066 8913 选择题 人工
    TVQA[69] 2018 电视剧 925 21793 76 152545 选择题 人工
    SVQA[59] 2018 Unity3D生成 12000 12000 118680 开放问题 自动
    TVQA+[52] 2019 TVQA 279 4198 60~90 29383 选择题 人工
    KnowIT VQA[137] 2019 电视剧 207 12087 20 24000 选择题 人工
    Activitynet-QA[142] 2019 ActivityNet 5800 5800 180 58000 开放问题 人工
    EgoVQA[144] 2019 IU Multiview 16 520 20~100 600 选择题/开放问题 人工
    Social-IQ[145] 2019 YouTube 1250 1250 7500 选择题 人工
    DramaQA[146] 2020 电视剧 18 23928 3.6 17983 选择题 人工
    LifeQA[147] 2020 YouTube 59 275 74 2326 选择题 人工
    Tutorial-VQA[148] 2020 网络教学视频 76 408 6195 开放问题 人工
    How2QA[117] 2020 HowTo100M/TV 9035 22000 60 44007 选择题 人工
    Env-QA[53] 2021 模拟器生成 23261 85072 选择题 自动
    CLEVRER[132] 2021 模拟器生成 20000 20000 5 300000 选择题/开放问题 自动
    TrafficQA[136] 2021 交通视频 10080 10080 62535 选择题 人工
    NExT-QA[149] 2021 YFCC-100M 5440 5440 44 52044 选择题/开放问题 人工
    AGQA[150] 2021 Action genome 9601 9601 30 36000000 选择题/开放问题 自动
    STAR[151] 2021 Charades 22000 30 60000 选择题 自动
    Fill-in-the-Blank[36] 2022 VaTeX 28000 28000 10 28000 填空题 人工
    CRAFT[141] 2022 模拟器生成 9917 57524 10 57524 选择题 自动
    EgoTaskQA[152] 2022 LEMMA 2000 2000 45 40000 选择题/开放问题 自动
    下载: 导出CSV 
    | 显示表格
    图  16  部分数据集示例
    Figure  16.  Some examples of datasets

    1)MovieQA[80]

    MovieQA是应用广泛的大规模数据集之一,旨在评估从视频和文本中自动理解故事的能力. 为了更好地理解视频内容,数据集还提供了与电影视频、字幕、描述性视频服务、脚本和情节概要相关的5种故事来源. 基于这些来源的不同组合,该数据集包括6个子任务:视频加字幕、仅字幕、仅描述性视频服务、仅剧本、仅情节概要和开放式. 由于影片片段的长度、不断变化的背景和故事情节,MovieQA更注重用抽象和高层次的信息来理解故事.

    表3统计了主流模型在该数据集上的性能表现,根据测试集准确率对实验结果进行了排序. 将DEMN作为基准模型,其在验证集与测试集的实验结果为44.7%和30.0%. RWMN在测试集的性能明显优于DEMN,表明相邻记忆块关联性在提高电影理解能力方面起着至关重要的作用. FVTA测试集准确度相对于RWMN提升1%,在一定程度上体现了引入多跳注意机制对答案推理的必要性. LMN采用了更新机制和问题引导注意力模型,使字幕记忆与问题更加相关,并且LMN具有良好的可扩展性. MDAM通过后期融合避免了早期融合的过拟合现象,并利用自注意力模型使得性能有所提升. 与LMN相比,PAMN模型将多跳注意力与记忆网络相结合来动态推理,使生成的答案更加准确可靠. Jasani等人[153]使用在维基百科上的电影情节训练的WikiWord Embedding词嵌入模型进行推理时仅使用问题和答案,而忽略任何参考字幕或视频. 该模型性能之所以最优,是因为该数据集中的问题存在语言偏见或问题较为简单.

    表  3  主流模型在MovieQA上的性能表现
    Table  3.  Performance of Mainstream Models on MovieQA %
    模型 验证集准确率 测试集准确率
    DEMN[31] 44.7 30.0
    RWMN[32] 38.7 36.3
    FVTA[61] 41.0 37.3
    LMN[35] 42.5 39.0
    MDAM[68] 41.4
    PAMN[85] 43.3 42.5
    WikiWord Embedding[153] 50.0 47.0
    下载: 导出CSV 
    | 显示表格

    总的来讲,由于MovieQA数据集本身长视频及多模态特性(包含字幕),使其在VideoQA这一任务中更具挑战性. 由表3可以看出,基于注意力与记忆网络的模型更适用于此类长视频数据集,注意力机制可以从复杂的故事情节中寻找关键信息,记忆网络则用来保证电影情节的完整性. PAMN模型正是由于巧妙地整合了两者从而达到了次优的性能. 然而诸如此类的的模型严重依赖语言提示,由于未充分利用视觉特征而更容易出现语言偏见,WikiWord Embedding模型就是通过使用经过适当训练的词嵌入,利用数据集的偏好达到性能最优.

    2)TVQA[69]

    TVQA数据集中的视频来源于3种类型的6部经典美剧. 数据集中的问题采用了组合式的设计,包含问答和定位2个部分,并且每个问题都带有时序定位. 也就是说问题模板首先使用开始时间戳和结束时间戳,根据“when / before / after”来定位与问题相关的视频片段中的相关时刻,然后构成与视频和问题理解相关的“what / how / where / why”问题. 回答这样的问题需要模型具有一定的时序定位、理解对话和视频的能力.

    表4统计了主流模型在该数据集上的性能表现,根据准确率对实验结果进行了排序. 作为基准网络,文献[69]中的模型在验证集与测试集上的实验结果分别是65.85%与66.64%. STAGE[52]相对于原有模型同时考虑了时间与空间信息,联合定位时刻与对象位置,大幅度提升了模型的准确率,表明时空信息对于回答问题的重要性. 其次,MSAN模型性能的提升从回答问题需要不同模态的角度证明了模态转移的必要性. 文献[115]提出使用预训练模型,将文本进行掩码并与原始文本形成对比学习,从而学习到更好的特征表示,模型准确率相对于基准模型提升近10%.

    表  4  主流模型在TVQA上的性能表现
    Table  4.  Performance of Mainstream Models on TVQA %
    模型验证集准确率测试集准确率
    文献[69]65.8566.46
    PAMN[85]66.3866.77
    Multi-task[51]66.2267.05
    STAGE[52]70.5070.23
    MSAN[71]70.7971.13
    BERT Rep[102]72.3573.06
    DCM&FSG[73]74.2074.09
    iPerceive[74]76.9775.15
    SP&CRL[115]76.2376.15
    下载: 导出CSV 
    | 显示表格

    与MovieQA数据集相似,TVQA同为带有字幕的长视频. 从性能表现上来看,STAGE虽然引入时空位置信息,但在建模对象交互上的欠缺导致其性能不佳. 文献[102]提出基于BERT的模型,结构设计较为简单也达到了具有竞争性的性能,足以证明此类模型在VideoQA任务上的巨大潜力. 其次文献[115]提出的预训练模型实现了当前最优性能,但是其只是在已有数据集上进行自监督预训练,有限的数据集导致模型不能学习得到更好的权重. 根据TVQA数据集上的对比结果可以预见BERT与预训练模型将会是下一步的发展趋势.

    3)LSMDC-QA[143]

    LSMDC-QA数据集是来源于大规模电影描述挑战LSMDC16[154],该数据集由M-VAD和MPII-MD数据集融合而成. 该数据集针对模型对电影与字幕的理解提出了单项选择与视频检索2个任务. 单项选择任务中的正确答案来自真实字幕,而其他候选答案是从其他字幕中随机选择的. 与其他数据集相比,该数据集具有更多的视频片段,更关注电影本身.

    4)其他

    电影与电视剧类型数据集还包括MovieFIB,TVQA+,KnowIT VQA,DramaQA. MovieFIB是为视障人士提供的一个基于描述性视频注释的填空问答数据集,其拥有超过30万条的问答与视频对. TVQA+数据集是来源于TVQA中的一个电视剧《生活大爆炸》,在此基础上为问题的相关视频的帧上添加目标边框注释,使其具有更多的时空关系. KnowIT VQA数据集来自《生活大爆炸》的前9季,该数据集试图通过整合外部知识来解决之前数据集有限的推理能力,是最大的基于知识的人工生成VideoQA数据集之一. DramaQA数据集来源于韩剧《又是吴海英》,提供217308张以字符为中心的注释图像,该数据集着重于以角色为中心的表示形式,注释考虑了角色的行为和情感方面.

    1)MarioQA[140]

    MarioQA数据集中的视频源于一款《无限马里奥兄弟》的游戏视频,每个视频片段都带有事件记录,其基于手工构建的模板与不同的事件. 事件的类型包括吃、举、敲和扔等. 数据集由3个子集组成,包含不同的时间关系特征问题:没有时间关系问题、简单时间关系问题与复杂时间关系问题. MarioQA数据集的特征是具有时间依赖性与多个事件的大量视频,视频中事件的发生是清晰的,所以很容易在游戏视频中学习完整的语义信息.

    2)PororoQA[31]

    PororoQA数据集源于儿童卡通视频. 该视频共有171集,每集有一个不同的故事,平均长度为7.2 min,总时长为20.5 h,共16066对场景对话和27328个人工生成的细粒度场景描述语句. 卡通视频相对于电影、电视剧等其他视频来说,视频简单明了,故事结构连贯,人物和背景的数量较少.

    3)SVQA[59]

    SVAQ数据集是由Unity3D生成的关于几何变化的视频组成. 数据集中的每个视频片段包含了3~8个静态或动态3D几何图形. 每个几何图形都有3个基本属性: 形状、大小和颜色. 其中动态几何图形具有额外的动作类型和动作方向的属性. 基于这些属性,可以根据对象之间特定的时空关系、相对位置和动作顺序来构造问题. 与其他VideoQA数据集相比,合成视频包含了真实视频中难以收集的对象之间清晰的时空关系,这也导致该数据集的视频内容不够丰富,只包含具有对象之间各种时空关系的长结构化的问题. 此外,SVQA中的问题需要多步推理,它可以分解为可读的逻辑树或链布局,每个节点表示需要进行比较或算术等推理操作的子任务.

    4)Env-QA[53]

    Env-QA数据集的提出旨在评估模型理解动态环境的能力. 通过最近发布的AI2-THOR[155]模拟器生成以自我为中心的关于在环境中探索和互动的视频,这些视频共涉及15种基本动作、115种物体和120种室内模拟环境. Env-QA提供了5种类型的问题,从不同的方面评估对环境的动态理解,包括查询对象属性、对象状态、事件、事件的时间顺序、事件或对象的计数数量. 与MovieQA和TVQA这类影视数据集相比,Env-QA更加关注于环境的交互.

    5)CLEVRER[132]

    CLEVRER数据集中的每个视频都展示了一个简单的玩具物体场景,它们模拟物理中的相互碰撞. 该数据集的任务设计侧重于时序和因果的逻辑推理,因其有着较好的注释,可为复杂推理任务的模型提供有效评估. 该数据集中的问题分为描述性、解释性、预测性和反事实4种类型,从互补的角度研究了视频中的时序和因果推理问题.

    6)CRAFT[141]

    该数据集由Box2D模拟器创建,旨在评估模型对 2D 模拟视频相关问题的时间和因果推理能力. 数据集中的视频包含各种运动物体,它们彼此和场景相互作用. 问题类别包括以前研究过的描述性问题和反事实问题,同时引入了一个新的因果问题类别,通过因果、使能、预防概念来理解物体之间的因果交互作用.

    1)TGIF-QA[45]

    TGIF-QA数据集来源于TGIF数据集(Tumblr GIF)[156],以GIF动态图作为视频源. 该数据集基于TGIF数据集提出了4种类型的任务:重复计数、重复动作、状态转换和帧问答. 重复计数任务是关于计算某一动作重复次数的开放式问题. 重复动作任务定义为识别视频中重复动作的单项选择问题. 状态转换任务也是一个单项选择问题,是关于识别另一种状态之前或之后的状态,包括面部表情(如从悲伤到快乐)、动作(如从站立到坐)、位置(如从卧室到客厅)、物体属性(如从空到满). 帧问答任务是一个开放式问题,主要是基于视频中的某一帧,类似于图像问答. 与其他数据集相比,TGIF-QA包含了更多的动词形式,理解视频片段的内容需要丰富的时空推理.

    表5统计了现有主流模型在该数据集上的实验结果,对重复动作、状态转换与帧问答这3个任务使用准确率进行评估,对计数任务使用损失进行评估. 一些基于注意力机制的方法虽然尝试从时空角度处理视频特征,并取得一些成效,但其并未真正理解对象的空间交互,以至于在时空问题上表现一般. L-GCN通过位置感知图建模对象位置信息与空间关系;HGA则构建视频与问题的异构图,侧重于模态的对齐与推理过程. L-GCN与HGA的模型性能均高于一般的注意力模型,但是它们没有利用或利用视频帧级的信息不够充分,缺乏对视频细粒度的理解. MSPAN通过多尺度视频特征交互来挖掘视频中对象的高层次关系,由于其限于帧级与片段级的单一交互,这不足以处理视频中的复杂场景. PGAT同时探索了对象、帧和片段之间的多个模态内交互,以更全面地理解视觉内容,在图网络模型中达到最优性能. 引入音频信息的VGNMN模型在各个任务上都取得了仅次于预训练模型的较优性能,同时Le等人[27]通过消融实验证明了音频模态在VideoQA任务中的重要性. 预训练模型在该数据集上表现最为突出,例如MERLOT与VIOLET等,它们在动作与状态类问题上的准确率高达90%以上. 尽管预训练在各种视频语言任务上都有明显的改善,但Transformer在视频语言上的潜力并未得到充分挖掘,一方面是缺少标准的预训练数据集,另一方面则是Transformer的效率问题,包括内存占用量和计算量.

    表  5  主流模型在TGIF-QA上的性能表现
    Table  5.  Performance of Mainstream Models on TGIF-QA
    模型 重复动作
    /%
    状态转换
    /%
    帧问答
    /%
    计数
    损失
    ST-VQA[45] 60.8 67.1 49.3 4.28
    Co-Mem[34] 68.2 74.3 51.5 4.10
    PSAC[67] 70.4 76.9 55.7 4.27
    LAD-Net[66] 69.9 78.4 57.5 4.32
    STA[65] 72.3 79.0 56.6 4.25
    Jin等人[72] 72.7 80.9 57.1 4.17
    HME[84] 73.9 77.8 53.8 4.02
    L-GCN[91] 74.3 81.1 56.3 3.95
    HGA[92] 75.4 81.0 55.1 4.09
    HCRN[129] 75.0 81.4 55.9 3.82
    HOSTR[130] 75.0 83.0 58.0 3.65
    FAM[81] 75.4 79.2 56.9 3.79
    QueST[60] 75.9 81.0 59.7 4.19
    Bridge2Answer[94] 75.9 82.6 57.5 3.71
    TPT[109] 76.6 81.6 57.8 3.63
    HAIR[101] 77.8 82.3 60.0 3.88
    MSPAN[99] 78.4 83.3 59.7 3.57
    HQGA[131] 76.9 85.6 61.3
    CoCo-BERT[123] 78.3 85.6 61.1 3.78
    SiaSamRea[121] 79.7 85.3 60.2 3.61
    PGAT[100] 80.6 85.7 61.1 3.96
    CLIPBERT[120] 82.8 87.8 60.3
    VGNMN[27] 84.5 88.7 74.7 2.65
    VIOLET[126] 92.5 95.7 68.9
    MERLOT[118] 94.0 96.2 69.5
    下载: 导出CSV 
    | 显示表格

    2)MSRVTT-QA和MSVD-QA[48]

    MSRVTT-QA和MSVD-QA数据集分别来源于MSRVTT和MSVD视频数据集. MSRVTT-QA数据集更大且具有更复杂的场景. 数据集包含约1万个视频片段和约24.3万个问答对,问题有5种类型,包括what,who,how,when,where,该数据集中的视频相对较长,长度为10~30s不等,相当于每个视频300~900帧. MSVD-QA数据集共有1970个视频片段和50505个问题答案对. 与 MSRVTT-QA类似,问题有5种类型,主要用于视频字幕实验,但由于其数据量较大,因此也用于VideoQA任务.

    表6统计了主流模型在该数据集上的性能表现,表中值均为准确率,其与表5如出一辙,性能更优的模型都是基于图网络和预训练模型. 基于图结构的模型LiVLR在MSRVTT-QA取得了最佳的实验结果,其中GCN对视觉与语言的多粒度信息进行时空建模起到关键性作用. 基于大规模数据集的预训练模型在下游VideoQA任务上性能表现出众,MSRVTT-QA和MSVD-QA数据集上的实验结果也印证了这一结论. 但此类数据驱动的模型,可解释性相对较弱.

    表  6  主流模型在MSRVTT-QA和MSVD-QA上的性能表现
    Table  6.  Performance of Mainstream Models on MSRVTT-QA and MSVD-QA %
    模型 MSRVTT-QA MSVD-QA
    What Who How When Where All What Who How When Where All
    E-VQA[48] 18.9 38.7 83.5 70.5 29.2 26.4 9.7 42.2 83.8 72.4 53.6 23.3
    E-SA[48] 22.0 41.6 79.6 73.1 33.2 29.3 15.0 45.1 83.8 65.5 32.2 27.6
    E-MN[48] 23.4 41.8 83.7 70.8 27.6 30.4 12.9 46.5 80.3 70.7 50.0 26.7
    AMU[48] 26.2 43.0 80.2 72.5 30.0 32.5 20.6 47.5 83.5 72.4 53.6 32.0
    HRA[56] 35.1 34.4
    HME[84] 26.5 43.6 82.4 76 28.6 33 22.4 50.1 73 70.7 42.9 33.7
    L-GCN[91] 34.3
    Jin等人[72] 29.5 45.0 83.2 74.7 42.4 35.4 24.2 49.5 83.8 74.1 53.6 35.0
    QueST[60] 27.9 45.6 83 75.7 31.6 34.6 24.5 52.9 79.1 72.4 50 36.1
    FAM[81] 26.9 43.9 82.8 70.6 31.1 33.2 23.1 51.6 82.2 71.4 51.9 34.5
    SSML[122] 35.1 35.1
    TSN[33] 27.9 46.1 84.1 77.8 37.6 35.4 25.0 51.3 83.8 78.4 59.1 36.7
    HGA[92] 29.2 45.7 83.5 75.2 34.0 35.5 23.5 50.4 83.0 72.4 46.4 34.7
    MHMAN[86] 28.7 47.1 85.1 77.1 35.2 35.6 23.3 50.7 84.1 72.4 53.6 34.6
    HCRN[129] 35.6 36.1
    ActBERT[37] 29.4 45.6 79.8 76.7 36.4 35.5 28.7 53.8 80.0 70.7 46.4 39.0
    HOSTR[130] 35.9 39.4
    Bridge2Answer[94] 36.9 37.2
    OCRL+LOGNet[97] 36.0 38.2
    HAIR[101] 37.5 36.9
    CLIPBERT[120] 37.4
    PGAT[100] 38.1 39.0
    TPT[109] 38.5 37.7
    MSPAN[99] 31.9 47.2 83.2 77.5 38.4 37.8 31.0 53.8 77.0 72.1 53.6 40.3
    HQGA[131] 32.5 48.9 81.5 78.3 38.4 38.6 30.4 57.2 76.2 75.9 32.1 41.2
    CoMVT[124] 39.5 42.6
    SiaSamRea[121] 41.6 45.5
    VQA-T[116] 41.5 46.3
    VIOLET[126] 43.9 47.9
    LiVLR[98] 50.3 77.1 94.2 81.3 48.4 59.4
    下载: 导出CSV 
    | 显示表格

    由TGIF-QA,MSRVTT-QA,MSVD-QA上统计的实验数据不难发现,用于VideoQA上的方法逐渐由常规注意力和记忆网络转向图神经网络与基于Transformer的预训练模型. 此外,也有研究者提出其他的算法模型同样有着出色的表现,如基于基础构建单元的HCRN与HOSTR,它们在某种程度上为后续模型设计提供了另一种设计思路,如HQGA.

    3)Activitynet-QA[142]

    Activitynet-QA数据集来源于Activitynet视频数据集,由YouTube短片组成. 其中问题的类型分为3种:基于动作的问题,检测模型对粗略时序动作的理解;基于空间关系的问题,测试模型对静态帧的空间推理能力;基于时序关系的问题,考察模型从一个序列的帧中推理对象的时序关系的能力. 答案类型分为6类: 是/否、数字、颜色、对象、位置和其他. 为了确保问题的质量,数据集限制问题和答案的长度,题目最多20个词,答案最多5个词. 与其他VideoQA数据集相比,Activitynet-QA具有大规模、全人工注释的长视频,而且来源于生活,更加贴合实际,因此相对其他数据集更有意义.

    4)YouTube2Text-QA[55]

    YouTube2Text-QA数据集是提出比较早的一个VideoQA数据集,来源于YouTube2Text[157]数据集. 其数据取自YouTube短视频,对于每一个视频片段,均由人工手动生成自然语言描述. 问题的类型为单项选择与开放式,问题的提问方式分为who、what和其他. YouTube2Text-QA数据集规模相对较大,而且带人工注释的视频描述对于问答对的产生很方便,对模型训练也有很好的作用.

    5)Video-QA[79]

    Video-QA数据集来源于互联网上的在线视频库. 每个视频通常有3~5个描述句子,描述性句子由视频提交者制作. 描述包含场景细节、演员、动作以及可能的非视觉信息. 问答类型也较为丰富. Video-QA数据集是以最少的人力生成的一个较大规模的基于视频的问答数据集.

    6)AGQA[150]

    AGQA 源于Action genome[158],是一种新的组合时空推理的数据集,提供了一个评估视觉模型中各种维度的组合时空推理的基准. 其包含约1.92亿个不平衡问答对,这种不平衡的问答对将引起模型偏见,Grunde-McLaughlin等人[150]通过平衡答案分布和问题结构的类型来最大限度地减少这种偏见,将原始不平衡问答对集合减少为390万个问答对的平衡子集. 该数据集的语料库纯粹是基于视觉的,比现有的基准测试集大3个数量级,适用于评估模型复杂的多步推理能力.

    7)其他

    数据源为开放类型的数据集还包括EgoVQA, Social-IQ,LifeQA,Tutorial-VQA,How2QA,TrafficQA,NExT-QA,STAR,Fill-in-the-Blank. EgoVQA数据集是一个新颖的以自我为中心视角的VideoQA数据集,视频都是第一人称,其视频源是公共IU Multiview数据集,为多视图自中心视频研究而收集的. Social-IQ数据集来自于YouTube上各种各样的视频,视频中的情景与事件贴近生活,其目标是分析由自然互动组成的非约定俗成的社交情境,是一个开拓性的真实世界无约束数据集,旨在评估现在和未来人工智能技术的社交智能. LifeQA数据集来源于YouTube上人们在不同场景下的日常生活视频,这些视频均为在自然环境下带语音互动的视频;因其问答均与生活息息相关,非常有助于真实的问答系统. Tutorial-VQA数据集由76个教程网站上的视频组成,视频均经过预处理,包含文本及每句话的时间戳信息,是一种用于在教程视频中寻找答案范围的新型数据集. How2QA数据集来源于HowTo100M和电视剧,视频类型具有多样性特点. 与TVQA类似,该数据集也为每个问题提供了相关时刻的开始点和结束点. TrafficQA数据集通过在线和离线获取相结合的方式收集了覆盖各种真实的交通场景的视频,非常有助于交通场景中的辅助驾驶、违章检测等应用. NExT-QA中的视频源于YFCC-100M[159],视频主要关注于现实的生活场景,内容具有丰富的对象交互. 该数据集的问题分为因果关系问题、时序性问题与描述性问题3种类型,旨在评估模型的因果动作推理与时间动作推理的能力. STAR[151]源于Charades[160]数据集,它与AGQA同为真实世界场景的数据集. AGQA中的任务设计侧重于时空关系,而STAR更关注基于现实情景的推理,侧重于人与对象交互、时间序列分析、动作预测和可行性推理. Fill-in-the-Blank源于一个多语言视频字幕数据集VaTeX[161],通过掩码视频英文字幕中的名词性单词或短语得到具有多个正确答案的填空题,其余正确答案均由人工生成. EgoTaskQA[152]在LEMMA[162]数据集基础上进行数据增强,与EgoVQA类似,也是一个以自我为中心的VideoQA数据集. 采用与AGQA同样的方式平衡答案分布和问题结构的类型来减少数据偏见,其问题设计借鉴CLEVRER,旨在评估模型的时空和因果推理能力.

    VideoQA任务涉及计算机视觉与自然语言处理2个领域,面临着更为严峻的挑战,相对于ImageQA而言其应用前景更为广泛. 随着近几年研究者们在该任务上的不断改进与创新,众多模型被提出并在特定的数据集上有着出色表现. 同时,受到该任务的启发,应用于各种场景的数据集也层出不穷. 尽管目前有很多优秀的模型与数据集,但是能够真正应用于实际生活中的少之又少. 这意味着目前的模型大多只是为了提升对特定数据集的性能,并不能在现实中实现人机互动,所以该任务还需要进行不断探索与研究. 总之,VideoQA仍处于一个发展阶段,也必然存在着诸多问题与挑战.

    目前开放式问答模型相对较少,其主要原因是对于该类型的问答难以制定合适的评估标准,其次真正意义上的开放式问答的数据集几乎没有. 传统的开放式问答任务是预定义一个答案集合,从中选择一个答案,其被视为一个多分类任务,与选择题任务类似. 即当前开放式问答任务的答案都属于一个潜在的答案集合,这并不符合人工智能的发展目标,所以生成式答案更适于人们的逻辑. 文献[36, 63, 106] 提出的模型解决开放式问题,该模型根据视频与问题来生成一个自由形式的答案. 这种类型的开放式问答能够像人一样回答问题,所以其应用范围更广,更符合实际需求,但模型的准确率评估依然是个难题.

    目前,大多数模型不能够对其问答过程进行充分的可视可解释性分析,因而VideoQA的结果一直很难被完全信服. 因此,如何利用可视化的工具分析解释模型的内部机理尤为重要. 一旦能够进行可视化的机理解释,就可以给出一个通用的VideoQA模型范式,在各种不同类型的数据源间进行迁移学习.

    数据集缺陷是导致模型鲁棒性与泛化能力不足的重要原因. 部分数据集规模较小,学习样本不足将导致模型欠拟合,测试样本不足也将导致预测结果可靠性较低. 几乎近一半数据集中的问答对是通过固定问题模板结合程序自动生成,这使得问答类型缺乏多样性,很容易导致模型训练过拟合. 部分数据集存在偏见,这些数据集收集的问题有的更侧重于视觉信息,有的更侧重于文本信息,而有的不需要视觉与文本信息就能够正确回答. 这种数据集偏见可能会使得模型达到很好的训练效果,但在测试集表现出很大差异,难以泛化到其他数据集.

    基于4.1节所述的VideoQA问题与挑战,未来的研究工作可以从以下5个方面进行开展.

    好的数据集是训练优秀模型的前提. 首先数据集规模不能太小,可以在必要时通过数据增强来扩充数据集,由此达到增强模型的鲁棒性、提升模型泛化能力的目的. 其次可以加入对抗样本训练,提升模型在对抗样本的鲁棒性,但是若模型过于鲁棒,其泛化能力就会下降. 然后,数据集中的各种类型的问题需要均衡,比如根据单一模态回答的问题与需要根据融合模态回答的问题比例不要相差太大,只需单一模态就能回答的问题的数量最好也不要偏向某一模态信息. 对于具体问题,例如涉及到状态转移、计数等时序性问题的比例也需要提高. 只有均衡的数据集才能够正确地评价VideoQA模型的能力.

    相比于图像,视频具有更加丰富的多模态信息,包括音频、字幕、光流等. 当前绝大多数VideoQA模型在处理视频数据时,以视频的视觉模态为主;也有一些方法同时利用视频的视觉模态和字幕模态,但通常只是对多模态特征进行简单地融合,如简单的点乘、拼接或双线性池化等[31-33],这种融合方式很难充分利用模态之间的互补信息. 为了更加充分地利用视频的多模态信息:一方面可以同时引入更多不同模态信息而不只是2种模态;另一方面可以通过不同模态之间的协同学习而不只是简单的模态融合来挖掘多模态信息的潜力,比如通过不同模态分支之间的互学习来提升对视频的表示能力. 此外,并不是所有视频都存在各个模态的信息,比如某个视频可能没有音频信号,如何处理某些模态丢失的情况是十分有价值的研究问题;同时,对多模态信息的建模会增加模型的复杂度,如何构建更加轻量的多模态协同使用的模型也是未来值得研究的问题.

    在ImageQA中,Wang等人[163]提出了QA R-CNN的模型,同时构建了EST-VQA数据集. 该数据集加入了支撑答案的证据,模型在推理答案时会提供预测该答案的支撑证据. 文献[164-165]也提出了使用显式知识进行因果推理的方法,可以使模型预测的答案更具有可解释性. 与ImageQA相同,VideoQA也更加需要使预测的答案具有可解释性,因为大多数模型依赖于预定义的答案池,无法处理词汇表之外的问题答案. 因此这些模型是否真正具有理解和推理问题的能力,还是仅仅对固定答案空间的过度拟合很难知晓. 所以在构建视频数据集时加入支撑答案的证据也是未来的必要工作,让VideoQA模型进行答案推理,并提供支撑证据保证了推理过程的因果关系,也使得预测答案更加合理.

    目前,大部分VideoQA模型只关注数据集中可利用的视觉与文本信息,然而忽略了并不是所有的问题都能够凭借数据集提供的信息进行回答. 由于数据集本身提供的信息有限,无论是在ImageQA还是在VideoQA中,仅仅利用给定的视觉与文本信息来回答问题往往是不充分的,VideoQA任务中的部分问题更需要结合先验知识进行推理. 这些知识包括常识知识、关系知识等,它们一般通过在线获取或者手动构建. 将与问题相关的实体对象与外部知识进行关联,从而提升模型对视频和问题的理解程度以达到知识推理的准确性.

    图17所示,这是一个涉及视觉与常识知识的问题[166]. 要正确回答“地面上的红色物体能用来做什么?”,模型所凭借的不仅源于图像上所识别的“消防栓”这单一信息,而且必须依靠来自外部的常识知识,即“消防栓能灭火”作为支撑的事实,才能正确给出“灭火”这一答案. 这是一个ImageQA模型上利用外部知识的场景,此外文献[167-172]提出ImageQA的模型均结合了外部知识进行推理,均取得了优异的实验结果. 同理,VideoQA包含更丰富的信息,推理过程中更加需要外部知识的支撑. 目前已有少数工作如文献[104, 137-138]在VideoQA模型推理时合理地查询外部知识,进一步提升了模型回答的准确率. 同时,外部知识也可以解决现有方法在基于特定数据集训练的模型泛化能力弱的问题,所以,如何将外部知识与VideoQA模型结合起来也是未来要讨论的重点.

    图  17  需要视觉和常识知识来回答的问题示例[166]
    Figure  17.  Examples of questions that require visual and common sense knowledge to answer[166]

    近2年来,视觉语言预训练模型在从大规模数据中学习联合视觉-文本表示方面取得了巨大成功. 预训练模型能够流行起来的一个重要原因是用于训练这些强大的视觉语言模型的大规模数据可以很容易地从互联网上获取到,而无需任何耗时费力的手动注释. 因此,有理由相信,随着数据集规模的不断增大,在不久的将来会训练出用于下游任务更强大的模型.

    将预训练模型用于特定的下游任务,比较流行的方法是微调(Fine-tuning). 而现在有研究者希望用提示(Prompting)来代替原来的Fine-tuning方法,它不同于Fine-tuning改造原有模型参数的方式,Prompting则是将下游任务的输入输出形式改造成预训练任务中的形式. Radford等人[173]提出CLIP模型,给定其适当手工设计的Prompting,使模型有效地缩小预训练和下游任务之间的差距. Ju等人[174]在CLIP基础上提出通过学习特定任务的提示向量来实现高效和轻量级的模型适应,并将CLIP的图像理解扩展到视频理解,并增加了对时间维度的处理. 其在动作识别与文本视频检索任务中的性能均优于现有方法,相信未来将其应用到VideoQA任务中也将会取得优异的性能表现.

    本文主要对该领域的发展现状、各种模型框架以及不同的基准数据集进行了回顾. 对比分析了VideoQA任务与ImageQA任务两者的重要区别与挑战,主要区别是视频相对于图片具有更复杂的语义信息. 同时对用于该任务的各种模型进行了详细的分析与讨论:注意力机制的应用能够像人一样关注到视频与问题中的有效信息;记忆机制加上注意力能够对关键信息不断更新与保存;利用图网络建模视频时空结构进行联合推理更能准确地解决时空相关问题;利用海量数据进行预训练基于Transformer或BERT的模型具有较好的鲁棒性. 本文对用于该任务的数据集也进行了细致介绍,并分析了部分模型在数据集上的实验结果,最后指出了目前数据集与模型存在的一些不足,数据集存在的局限性导致模型鲁棒性与泛化能力不足,以及模型本身缺乏可解释性. 虽然VideoQA被提出已有五六年之久,但该领域仍处于发展阶段,很少有实际落地的应用. 随着越来越多的研究者们的加入,相信在不远的将来,VideoQA技术一定会应用于现实生活中.

    作者贡献声明:包翠竹负责课题设计、文献归纳、论文撰写与修改;丁凯负责论文撰写、文献整理与数据收集;董建锋负责课题构思、论文修改与结构设计;杨勋负责论文指导与修改以及提供材料支持;谢满德负责规划论文整体结构、提出论文修改意见;王勋负责论文指导与修改、论文审阅.

  • 图  1   ASR系统的通用框架

    Figure  1.   General framework for ASR systems

    图  2   ASR系统中一般特征提取流程

    Figure  2.   General feature extraction process in ASR system

    图  3   分帧与加窗处理示意图

    Figure  3.   Diagram of framing and windowing

    图  4   攻击模型流程图

    Figure  4.   Flow diagram of the attack model

    图  5   Ⅰ类分帧的区间种类

    Figure  5.   Interval categories of class- Ⅰ framing

    图  6   Ⅱ类分帧的区间种类

    Figure  6.   Interval categories of class- Ⅱ framing

    图  7   单帧中权重随位置的变化趋势

    Figure  7.   Variation trend of weight with position in single frame

    图  8   对2类分帧区间的扰动范围设计

    Figure  8.   Perturbation range design for two frame intervals

    图  9   通过减少扰动区域对重叠区间解耦合

    Figure  9.   Decoupling overlapping intervals by reducing the disturbance area

    图  10   通过扰动衰减探索对抗样本空间

    Figure  10.   Exploring adversarial example space through perturbation decay

    图  11   语音识别模型中的平均k值变化

    Figure  11.   Variation of the average k values in ASR

    表  1   实际区间类型及特点总结

    Table  1   Practical Interval Categories and Characteristics Summary

    区间类型Ⅰ类分帧Ⅱ类分帧
    重叠区间

    受耦合作用影响
    非重叠区间

    不受耦合作用影响
    重叠区间

    受耦合作用影响最大
    重叠区间

    受耦合作用影响
    下载: 导出CSV

    表  2   扰动范围限制实验设计

    Table  2   Experiment Design of Perturbation Range Constraints

    影响因素 Ⅰ类分帧 Ⅱ类分帧
    A B C D E F G
    耦合作用 / / /
    位置权重 /
    区间长度 / /
    注:“○,◎,●”分别表示各因素在同类分帧方式中比较时对对抗样本空间的提升、缩减、大幅度缩减作用;“/” 表示不影响.
    下载: 导出CSV

    表  3   目标模型配置信息

    Table  3   Target Model Configuration Information

    语音识别模型 分帧方式 特征提取 窗口函数
    DeepSpeech v0.9.3 Ⅰ类 MFCC Hamming
    DeepSpeech v0.4.1 Ⅰ类 MFCC Hann
    DeepSpeech v0.1.1 Ⅱ类 MFCC 不加窗
    Lingvo Ⅱ类 Mel谱 Hann
    SpeechBrain-Transducer Ⅱ类 FBank Hamming
    Whisper Ⅱ类 FBank Hann
    下载: 导出CSV

    表  4   Ⅰ类分帧中限制扰动区间实验

    Table  4   Perturbation Range Constraints Experiments of Class-I Framing

    扰动区间 DeepSpeech v0.9.3 DeepSpeech v0.4.1 扰动比例
    SNR/dB k SR/% SNR/dB k SR/%
    A 22.44 9.08 93.7 21.09 8.36 97.3 0.4
    B 18.11 7.71 88.7 17.19 7.24 95 0.6
    C 23.44 10.54 94.3 22.25 9.91 99 0.6
    D 15.88 5.60 83 14.32 4.77 83.7 0.4
    不限 25.12 12.58 96.3 24.13 12.1 100 1.0
    下载: 导出CSV

    表  5   Ⅱ类分帧中限制扰动区间实验

    Table  5   Perturbation Range Constraints Experiments of Class- Ⅱ Framing

    扰动
    区间
    DeepSpeech v0.1.1LingvoSpeechBrain-TransducerWhisper扰动
    比例
    SNR/dBkSR/%SNR/dBkSR/%SNR/dBkSR/%SNR/dBkSR/%
    E0004.121.823934.434.0210016.7711.5180.30.5
    F0005.332.3448.735.095.610016.8211.6281.50.5
    G19.287.569821.858.2295.345.0712.9710011.129.0473.30.33
    不限25.0112.4510027.9614.0397.352.5518.7610025.1815.4686.81.0
    下载: 导出CSV

    表  6   针对单帧攻击的原始语音及攻击目标设置

    Table  6   Original Speech and Attack Target Setting for Single Frame Attack

    文件序号 原始语音转录 攻击目标
    1188-133604-0014 “Do not therefore think that the gothic school is an easy one” think → thank
    61-70970-0009 “This late and i go myself within a short space” short → shirt
    6829-68769-0051 “There was a grim smile of amusement on his shrewd face” on → of
    7176-92135-0009 “Nd i should begin with a short homily on soliloquy” on → in
    7127-75946-0004 “Certainly sire but i must have money to do that what” have → hate
    7176-92135-0020 “Double nine two three elsinore double nine yes hello is that you horatio hamlet speaking” nine → nice
    7176-92135-0003 “Your play must be not merely a good play but a successful one” good → food
    8555-292519-0012 “Through the black night rain he sang to her window bars” night → right
    5683-32866-0027 “A cold bright moon was shining with clear sharp lights and shadows” clear → clean
    61-70970-0012 “Yet he will teach you a few tricks when morning is come” teach → beach
    下载: 导出CSV

    表  7   单帧攻击实验结果

    Table  7   Experimental Results of Single Frame Attack

    序号 扰动帧 kA kB
    1188-133604-0014 [t] 5 11
    61-70970-0009 [t−2, t+2] 5 6
    6829-68769-0051 [t−2, t+2] 8 9
    7176-92135-0009 [t−2, t+2] 3 4
    7127-75946-0004 [t−1, t+1] 4 9
    7176-92135-0020 [t−1, t+1] 5 7
    7176-92135-0003 [t−2, t+2] 0 2
    8555-292519-0012 [t−2, t+2] 7 6
    5683-32866-0027 [t−2, t+2] 2 7
    61-70970-0012 [t−3, t+3] 4 5
    下载: 导出CSV

    表  8   噪声攻击实验结果

    Table  8   Experimental Results of Noise Attack

    扰动区间 SNR/dB k SR/%
    A 21.75 8.4 97.3
    B 17.15 7.21 95
    C 22.45 9.99 99
    D 14.51 4.84 83.7
    不限 23.94 11.92 100
    下载: 导出CSV
  • [1]

    Li Jinyu. Recent advances in end-to-end automatic speech recognition[J]. APSIPA Transactions on Signal and Information Processing. 2022, 11(1): e8

    [2]

    Pan Shanrong. Design of intelligent robot control system based on human–computer interaction[J]. International Journal of System Assurance Engineering and Management, 2023, 14: 558−567

    [3] 魏春雨,孙蒙,邹霞,等. 语音对抗样本的攻击与防御综述[J]. 信息安全学报,2022,7(1):100−113

    Wei Chunyu, Sun Meng, Zou Xia, et al. Reviews on the attack and defense methods of voice adversarial examples[J]. Journal of Cyber Security, 2022, 7(1): 100−113 (in Chinese)

    [4]

    Wang Donghua, Wang Rangding, Dong Li, et al. Adversarial examples attack and countermeasure for speech recognition system: A survey[C] //Proc of the 1st Security and Privacy in Digital Economy. Berlin: Springer, 2020: 443−468

    [5]

    Li Zhouhang, Wu Yi, Liu Jian, et al. Advpulse: Universal, synchronization-free, and targeted audio adversarial attacks via subsecond perturbations[C] //Proc of the 20th ACM SIGSAC Conf on Computer and Communications Security. New York: ACM, 2020: 1121−1134

    [6]

    Zheng Baolin, Jiang Peipei, Wang Qian, et al. Black-box adversarial attacks on commercial speech platforms with minimal information[C] //Proc of the 21st ACM SIGSAC Conf on Computer and Communications Security. New York: ACM, 2021: 86−107

    [7]

    Carlini N, Wagner D. Audio adversarial examples: Targeted attacks on speech-to-text[C] //Proc of the 39th IEEE Security and Privacy Workshops. Piscataway, NJ: IEEE, 2018: 1−7

    [8]

    Taori R, Kamsetty A, Chu B, et al. Targeted adversarial examples for black box audio systems[C] //Proc of the 40th IEEE Security and Privacy Workshops. Piscataway, NJ: IEEE, 2019: 15−20

    [9]

    Liu Xiaolei, Wan Kun, Ding Yufei, et al. Weighted-sampling audio adversarial example attack[C] //Proc of the 34th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2020: 4908−4915

    [10]

    Tay K Y, Ng L, Chua W H, et al. Audio adversarial examples: Attacks using vocal masks[J]. arXiv preprint, arXiv: 2102. 02417, 2021

    [11]

    Qin Yao, Carlini N, Cottrell G, et al. Imperceptible, robust, and targeted adversarial examples for automatic speech recognition[C] //Proc of the 36th Machine Learning Research. New York: PLMR 2019: 5231−5240

    [12]

    Vadillo J, Santana R. On the human evaluation of universal audio adversarial perturbations[J]. Computers & Security, 2022, 112: 102495

    [13]

    Xie Yi, Li Zhuohang, Shi Cong, et al. Real-time, robust and adaptive universal adversarial attacks against speaker recognition systems[J]. Journal of Signal Processing Systems, 2021, 93(10): 1187−1200 doi: 10.1007/s11265-020-01629-9

    [14]

    Xie Yi, Li Zhuohang, Shi Cong, et al. Enabling fast and universal audio adversarial attack using generative model[C] //Proc of the 35th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2021: 14129−14137

    [15]

    Eisenhofer T, Schönherr L, Frank J, et al. Dompteur: Taming audio adversarial examples[J]. arXiv preprint, arXiv: 2102. 05431, 2021

    [16]

    Schönherr L, Kohls K, Zeiler S, et al. Adversarial attacks against automatic speech recognition systems via psychoacoustic hiding[J]. arXiv preprint, arXiv: 1808.05665, 2018

    [17]

    Malik M, Malik M K, Mehmood K, et al. Automatic speech recognition: A survey[J]. Multimedia Tools and Applications, 2021, 80(6): 9411−9457 doi: 10.1007/s11042-020-10073-7

    [18]

    Gupta D, Bansal P, Choudhary K. The state of the art of feature extraction techniques in speech recognition[C] //Proc of Speech and Language Processing for Human-Machine Communications. Berlin: Springer, 2018: 195−207

    [19] 沈轶杰,李良澄,刘子威,等. 基于单“音频像素”扰动的说话人识别隐蔽攻击[J]. 计算机研究与发展,2021,58(11):2350−2363 doi: 10.7544/issn1000-1239.2021.20210632

    Shen Yijie, Li Liangcheng, Liu Ziwei, et al. Stealthy attack towards speaker recognition based on one-“audio pixel” perturbation[J]. Journal of Computer Research and Development, 2021, 58(11): 2350−2363 (in Chinese) doi: 10.7544/issn1000-1239.2021.20210632

    [20]

    Sood M, Jain S. Speech recognition employing MFCC and dynamic time warping algorithm[C] //Proc of Innovations in Information and Communication Technologies. Berlin: Springer, 2021: 235−242

    [21]

    Pardede H F, Zilvan V, Krisnandi D, et al. Generalized filter-bank features for robust speech recognition against reverberation[C] //Proc of the 7th Int Conf on Computer, Control, Informatics and Its Applications. Piscataway, NJ: IEEE, 2019: 19−24

    [22]

    Keshishian M, Norman-Haignere S, Mesgarani N. Understanding adaptive, multiscale temporal integration in deep speech recognition systems[C] //Proc of the 35th Advances in Neural Information Processing Systems. Cambridge, MA: MIT, 2021: 24455−24467

    [23]

    Ravanelli M, Parcollet T, Bengio Y. The pytorch-Kaldi speech recognition toolkit[C] //Proc of the 44th IEEE Int Conf on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE, 2019: 6465−6469

    [24]

    Shen J, Nguyen P, Wu Yonghui, et al. Lingvo: A modular and scalable framework for sequence-to-sequence modeling[J]. arXiv preprint, arXiv: 1902.08295, 2019

    [25] 洪青阳,李琳. 语音识别:原理与应用[M]. 第2版. 北京:电子工业出版社,2023

    Hong Qingyang, Li Lin. Principle and Application of Speech Recognition[M]. 2nd ed. Beijing: Publishing House of Electronics Industry, 2023(in Chinese)

    [26]

    Panayotov V, Chen Guoguo, Povey D, et al. LibriSpeech: An ASR corpus based on public domain audio books[C] //Proc of the 40th IEEE Int Conf on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE, 2015: 5206−5210

    [27]

    Breithaupt C, Martin R. Statistical analysis and performance of DFT domain noise reduction filters for robust speech recognition[C/OL] //Proc of the 9th Int Conf on Spoken Language Processing. ISCA, 2006: 365−368. [2022-12-01]. https://www.isca-speech.org/archive/pdfs/interspeech_2006/breithaupt06_interspeech.pdf

    [28]

    Ravindran S, Anderson D V, Slaney M. Improving the noise-robustness of mel-frequency cepstral coefficients for speech processing[J]. Reconstruction, 2006, 12(S14): 48−52

    [29]

    Schuster G, Ansorge R. WOLA noise cancelling performance[C] //Proc of the 16th European Signal Processing Conf. Piscataway, NJ: IEEE, 2008: 1−5

    [30]

    Zhang Weiqiang, Yang Dengzhou, Liu Jia, et al. Perturbation analysis of mel-frequency cepstrum coefficients[C] //Proc of the 2nd Int Conf on Audio, Language and Image Processing. Piscataway, NJ: IEEE, 2010: 715−718

    [31]

    Szegedy C, Zaremba W, Sutskever I, et al. Intriguing properties of neural networks[J]. arXiv preprint, arXiv: 1312. 6199, 2013

    [32]

    Chen Yuxuan, Zhang Jiangshan, Yuan Xuejing, et al. Sok: A modularized approach to study the security of automatic speech recognition systems[J]. ACM Transactions on Privacy and Security, 2022, 25(3): 1−31

    [33]

    Xu Zirui, Yu Fuxun, Liu Chenchen, et al. HAMPER: High- performance adaptive mobile security enhancement against malicious speech and image recognition[C]// Proc of the 24th Asia and South Pacific Design Automation Conf. New York: ACM, 2019: 512−517

    [34]

    Abdullah H, Rahman M S, Garcia W, et al. Hear" no evil", see" kenansville": Efficient and transferable black-box attacks on speech recognition and voice identification systems[C] //Proc of the 42nd Symp on Security and Privacy. Piscataway, NJ: IEEE, 2021: 712−729

    [35]

    Wang Qian, Zheng Baolin, Li Qi, et al. Towards query-efficient adversarial attacks against automatic speech recognition systems[J]. IEEE Transactions on Information Forensics and Security, 2021, 16: 896−908 doi: 10.1109/TIFS.2020.3026543

    [36]

    Xie Yi, Li Zhuohang, Shi Cong, et al. Enabling fast and universal audio adversarial attack using generative model[C]// Proc of the 35th Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2021, 35(16): 14129−14137

    [37] 张万里,陈越,杨奎武,等. 一种局部遮挡人脸识别的对抗样本生成方法[J]. 计算机研究与发展,2023, 60(9): 2067−2079

    Zhang Wanli, Chen Yue, Yang Kuiwu, et al. An adversarial example generation method for locally occluded face recognition[J]. Journal of Computer Research and Development, 2023, 60(9): 2067−2079(in Chinese)

    [38]

    Abdullah H, Warren K, Bindschaedler V, et al. SoK: The faults in our ASRs: An overview of attacks against automatic speech recognition and speaker identification systems[C] //Proc of the 42nd Symp on Security and Privacy. Piscataway, NJ: IEEE, 2021: 730−747

    [39]

    Zong Wei, Chow Y W, Susilo W. Towards visualizing and detecting audio adversarial examples for automatic speech recognition[C] //Proc of the 26th Symp Information Security and Privacy. Berlin: Springer, 2021: 531−549

    [40]

    Madry A, Makelov A, Schmidt L, et al. Towards deep learning models resistant to adversarial attacks[J]. arXiv preprint, arXiv: 1706.06083, 2017

    [41]

    Wu Xiaoliang, Rajan A. Catch me if you can: Blackbox adversarial attacks on automatic speech recognition using frequency masking[C] //Proc of 29th Asia-Pacific Software Engineering Conf. Piscataway, NJ: IEEE, 2022: 169−178

    [42]

    Kwon H, Kim Y, Yoon H, et al. Selective audio adversarial example in evasion attack on speech recognition system[J]. IEEE Transactions on Information Forensics and Security, 2020, 15: 526−538 doi: 10.1109/TIFS.2019.2925452

    [43]

    Mathov Y, Ben Senior T, Shabtai A, et al. Stop bugging me! Evading modern-day wiretapping using adversarial perturbations[J]. Computers & Security, 2022, 121: 102841

  • 期刊类型引用(1)

    1. 龚桃,杨晓霞,李怡洁. 融合用户活跃度的上下文感知兴趣点推荐算法. 应用科技. 2024(04): 91-99 . 百度学术

    其他类型引用(6)

图(11)  /  表(8)
计量
  • 文章访问数:  1
  • HTML全文浏览量:  0
  • PDF下载量:  0
  • 被引次数: 7
出版历程
  • 收稿日期:  2022-12-19
  • 修回日期:  2023-05-03
  • 网络出版日期:  2023-11-30
  • 刊出日期:  2024-03-01

目录

/

返回文章
返回