Processing math: 7%
  • 中国精品科技期刊
  • CCF推荐A类中文期刊
  • 计算领域高质量科技期刊T1类
高级检索

基于信息瓶颈理论的鲁棒少标签虚假信息检测

王吉宏, 赵书庆, 罗敏楠, 刘欢, 赵翔, 郑庆华

王吉宏, 赵书庆, 罗敏楠, 刘欢, 赵翔, 郑庆华. 基于信息瓶颈理论的鲁棒少标签虚假信息检测[J]. 计算机研究与发展, 2024, 61(7): 1629-1642. DOI: 10.7544/issn1000-1239.202330506
引用本文: 王吉宏, 赵书庆, 罗敏楠, 刘欢, 赵翔, 郑庆华. 基于信息瓶颈理论的鲁棒少标签虚假信息检测[J]. 计算机研究与发展, 2024, 61(7): 1629-1642. DOI: 10.7544/issn1000-1239.202330506
Wang Jihong, Zhao Shuqing, Luo Minnan, Liu Huan, Zhao Xiang, Zheng Qinghua. Robust Few-Label Misinformation Detection Based on Information Bottleneck Theory[J]. Journal of Computer Research and Development, 2024, 61(7): 1629-1642. DOI: 10.7544/issn1000-1239.202330506
Citation: Wang Jihong, Zhao Shuqing, Luo Minnan, Liu Huan, Zhao Xiang, Zheng Qinghua. Robust Few-Label Misinformation Detection Based on Information Bottleneck Theory[J]. Journal of Computer Research and Development, 2024, 61(7): 1629-1642. DOI: 10.7544/issn1000-1239.202330506
王吉宏, 赵书庆, 罗敏楠, 刘欢, 赵翔, 郑庆华. 基于信息瓶颈理论的鲁棒少标签虚假信息检测[J]. 计算机研究与发展, 2024, 61(7): 1629-1642. CSTR: 32373.14.issn1000-1239.202330506
引用本文: 王吉宏, 赵书庆, 罗敏楠, 刘欢, 赵翔, 郑庆华. 基于信息瓶颈理论的鲁棒少标签虚假信息检测[J]. 计算机研究与发展, 2024, 61(7): 1629-1642. CSTR: 32373.14.issn1000-1239.202330506
Wang Jihong, Zhao Shuqing, Luo Minnan, Liu Huan, Zhao Xiang, Zheng Qinghua. Robust Few-Label Misinformation Detection Based on Information Bottleneck Theory[J]. Journal of Computer Research and Development, 2024, 61(7): 1629-1642. CSTR: 32373.14.issn1000-1239.202330506
Citation: Wang Jihong, Zhao Shuqing, Luo Minnan, Liu Huan, Zhao Xiang, Zheng Qinghua. Robust Few-Label Misinformation Detection Based on Information Bottleneck Theory[J]. Journal of Computer Research and Development, 2024, 61(7): 1629-1642. CSTR: 32373.14.issn1000-1239.202330506

基于信息瓶颈理论的鲁棒少标签虚假信息检测

基金项目: 国家重点研发计划项目(2022YFB3102600);国家自然科学基金项目(62192781, 62272374, 62202367, 62250009, 62137002, 61937001);国家自然科学基金创新研究群体(61721002);教育部创新研究团队(IRT_17R86);中国工程科学技术知识中心项目及中国工程院项目;王宽诚教育基金项目
详细信息
    作者简介:

    王吉宏: 1997年生. 博士研究生. 主要研究方向为图学习、可信机器学习

    赵书庆: 2001年生. 硕士研究生. 主要研究方向为图学习、可解释深度学习

    罗敏楠: 1984年生. 教授,博士生导师. 主要研究方向为机器学习、图学习、跨媒体数据挖掘

    刘欢: 1990年生. 博士,助理教授. 主要研究方向为机器学习、计算机视觉、网络舆情分析

    赵翔: 1986年生. 博士,教授. 主要研究方向为图数据管理与挖掘、智能分析

    郑庆华: 1969年生. 教授,博士生导师. 主要研究方向为智能学习环境理论与技术、网络舆情及有害信息监控

    通讯作者:

    罗敏楠(minnluo@xjtu.edu.cn

  • 中图分类号: TP391

Robust Few-Label Misinformation Detection Based on Information Bottleneck Theory

Funds: This work was supported by the National Key Research and Development Program of China ( 2022YFB3102600), the National Natural Science Foundation of China (62192781, 62272374, 62202367, 62250009, 62137002, 61937001), the Innovative Research Group of the National Natural Science Foundation of China (61721002), the Innovation Research Team of Ministry of Education (IRT_17R86), the Project of China Knowledge Center for Engineering Science and Technology and Project of Chinese Academy of Engineering, the Project of K. C. Wong Education.
More Information
    Author Bio:

    Wang Jihong: born in 1997. PhD candidate. His main research interests include graph learning and trusty machine learning

    Zhao Shuqing: born in 2001. Master candidate. His main research interests include graph learning and explainable deep learning

    Luo Minnan: born in 1984. Professor, PhD supervisor. Her main research interests include machine learning, graph learning, and cross-media retrieval

    Liu Huan: born in 1990. PhD, assistant professor. His main research interests include machine learning, computer vision, and public opinion analysis

    Zhao Xiang: born in 1986. PhD, professor. His main research interests include graph data management and mining, and intelligent analytics

    Zheng Qinghua: born in 1969. Professor, PhD supervisor. His main research interests include theory and technology of intelligent learning environment, and network public opinion and harmful information monitoring

  • 摘要:

    虚假信息检测对于维护网络舆情安全具有重要意义. 研究表明,虚假信息在信息内容和传播结构上较真实信息具有显著不同. 为此,近年来研究致力于挖掘信息内容和信息传播结构,提升虚假信息检测的精准性. 然而,现实场景中虚假信息的标注往往需要大量地与官方报道等比照分析,代价较为昂贵,现有方法对标注信息的过分依赖限制了其实际应用. 此外,虚假信息传播者可通过在评论区控评等手段恶意操纵虚假信息的传播,增加了虚假信息检测的难度. 为此,基于信息瓶颈理论提出一种鲁棒少标签虚假信息检测方法,通过互信息最大化技术融合无标注样本信息,克服虚假信息检测对标签的过分依赖问题;并通过对抗训练的策略模拟虚假信息传播者的恶意操纵行为,基于信息瓶颈理论学习鲁棒的虚假信息表征,在高质量表征虚假信息的同时消除恶意操纵行为的影响. 实验表明,该方法在少标签识别和鲁棒性2个方面均取得了优于基准方法的效果.

    Abstract:

    Misinformation detection is crucial for the social stability. Researches show that there are substantial distinctions between misinformation and real information in terms of information content and propagation structure. Consequently, recent researchers mainly focus on improving the accuracy of misinformation detection by jointly considering the information content and propagation structure. However, these methods can be infeasible in practice since they highly rely on manual label information. The manual labels can be expensive since they require extensive comparison with official reports and other evidence. Moreover, the spreaders of misinformation can adversarially manipulate the information content and propagation structure by controlling reviews and other methods. Such behaviors may exacerbate the challenges of misinformation detection. To address these problems, we propose a robust few-label misinformation detection method based on information bottleneck theory. Specifically, to mitigate the dependence on labeled data, we propose to integrate the unlabeled sample information by employing the mutual information maximization technique. Furthermore, to improve the robustness of our method against the adversarial manipulation of misinformation spreaders, we employ the adversarial training strategy to simulate the behaviors of the spreaders and propose to learn robust representations based on the information bottleneck theory. The learned representations can effectively embed the essential information in the misinformation while discarding the adversarial information involved by the spreaders. Empirical evaluations validate the effectiveness of the proposed approach, demonstrating superior performance compared with benchmark methods in terms of few-label detection and robustness.

  • 深度学习在生活中的应用愈发广泛,在图像分类[1-5]、语音识别[6]、推荐系统[7] 、行为建模[8]等领域均取得了优异的工作成绩.图像分类作为一项较为基础的研究工作,有大量的工程问题可以归类于图像分类与识别问题,如车牌识别[9]、路牌识别[10]、人脸识别[11]等.目前这些工作基本上都应用了一部分基于深度学习的图像分类技术.研究表明,计算机领域的技术存在着不同程度的安全风险[12-14],基于深度学习的技术亦存在安全风险.若这些应用底层的图像分类模型遭受到攻击,那么上层应用也将受到相当大的影响,给商业公司带来巨大的风险.而好的攻击算法的提出,可以给这些已经商业部署的深度学习模型进行风险评估,令其可以提前防范被攻击的风险.针对商业应用系统的安全性问题,当前已有工作[15-16]对此展开深入研究.Szegedy等人[17]于2013年发现深度神经网络存在安全性漏洞,通过在图像上添加微小的扰动噪声, 就可以让神经网络模型分类错误,自此,关于对抗攻击和对抗防御的研究拉开序幕.

    目前关于对抗攻击的形式可以分为白盒攻击[18-21]与黑盒攻击[22-25].白盒攻击可以获取到模型内部的相关信息,如梯度信息、模型结构等;黑盒攻击则被限制无法获取这些信息,仅能够获取到模型的输出结果,而输出结果可分为Score-based和Hard-label这2种.Score-based是指攻击者可以获取到模型输出的完整数据标签以及标签对应的概率;Hard-label是指攻击者只能获得模型输出的top-1标签,攻击者无法依赖任何丰富的信息来对样本的生成进行有效的指向性操作,给攻击增加了相当的难度.基于Hard-label的黑盒攻击工作是相当具有挑战性的.

    2017年,Brendel等人[22]提出的边界攻击算法是一种基于决策边界的对抗攻击算法,并且可以应对Hard-label问题,该算法从具有较大扰动的对抗性样本点开始,在保证样本对抗性的同时减小扰动以降低图像失真.边界攻击需要使用已经具备对抗性的样本作为初始样本,并从某种分布中采样,如高斯分布,该算法通常需要数十万次查询才能够将图像扰动降低到一个令人满意的程度.虽然边界攻击算法的查询量是一个巨大的量,但其给解决Hard-label问题指出了一个新的研究方向.2018年,Cheng等人[26]提出了opt攻击算法,该算法在边界攻击的基础之上将问题转化为了一个优化问题,即在图像距离较远时采用二分逼近来大幅度降低图像距离,在决策边界附近使用梯度估计策略,极大地降低了边界攻击所需要的查询次数,但也依旧需要数万次查询.2019年,Cheng等人[27]在opt攻击算法的基础之上提出了sign-opt攻击算法,这也是一种基于梯度估计的算法,通过在当前对抗点附近不断地进行查询,最终估计出一个合适的方向,再向着这个方向前进一小步,这一算法同样大大降低了边界攻击所需要的查询次数,然而查询次数依旧在数万级别.2020年,Chen等人[24]在边界攻击的基础之上提出了HSJA(hop skip jump attack)攻击算法,这是一种基于无偏梯度估计的攻击算法,它提出了一种控制偏离边界误差的方法.HSJA攻击算法成功地将模型查询次数控制在了万次以内,然而相对实际场景而言,近万次的查询依旧难以接受.2021年,Maho等人[25]提出了SurFree攻击算法,这是一种基于几何性质的攻击算法,其最大的特点是没有使用任何梯度估计去判断前进的方向,该算法不仅将查询次数限制在了2000次以内,而且成功地超越了众多基于梯度估计的边界攻击算法,达到当前最优.但通过实验发现,将实验次数控制在千次以内时,SurFree攻击算法的成功率出现明显下降;而将攻击次数控制在千次以内,才更加贴近于解决Hard-label问题的实际场景.

    本文提出了FastGBA(fast geometric boundary attack)攻击算法:一种新的黑盒攻击算法,是一种在样本空间内针对决策边界的几何攻击算法.FastGBA算法相比于SurFree攻击算法,在相同的查询次数限制下,可以产生L2距离更小的对抗样本.在查询次数限制在千次以内时,其成功率较SurFree攻击算法也有着大幅度的提升.

    本文的主要贡献有4个方面:

    1)提出了FastGBA攻击算法.这是一种在样本空间内针对决策边界的几何探测的攻击算法,它能够很好地解决Hard-label问题.

    2)引入了基于自注意力机制的注意力图生成方案,利用注意力图作为掩模,探究了掩模的处理方式与算法效率的关系,为后续掩模的使用提供了新的使用思路与方案.

    3)在4个不同的深度学习模型上进行了攻击实验,实验结果表明,FastGBA攻击算法具有很强的泛化性和稳定性,更加适用于模型的风险评估工作.

    4)与近期表现最优的2种攻击算法(HSJA,SurFree)进行了比较,在低查询量(查询次数不大于500次);中低扰动(L2距离不大于10)的条件下,在4个模型上的攻击成功率相较于SurFree攻击算法提升了14.5% ~ 24.4%,相较于HSJA攻击算法提升了28.9% ~ 36.8%.

    给定一个预训练模型,记其函数形式为:

    F:[0,1]D{1,2,,C}

    对于一个给定的样本x0,输入模型可得到top-1分类结果,即 k = F(x0) , k∈{1,2,…,C}.

    对于攻击者而言,需要找到对抗样本xadv,令 xadv 足够接近x0 ,但二者却可令分类器产生截然不同的分类结果,数学描述为:

    \left\{\begin{split} &d\left({\boldsymbol{x}}_{\mathrm{adv}},{\boldsymbol{x}}_{0}\right)={\left|\right|{\boldsymbol{x}}_{\mathrm{a}\mathrm{d}\mathrm{v}}-{\boldsymbol{x}}_{0}\left|\right|}_{p},p\in \left\{\mathrm{1,2},\infty \right\}.\\ &\mathrm{min}\;d\left({\boldsymbol{x}}_{\mathrm{a}\mathrm{d}\mathrm{v}},{\boldsymbol{x}}_{0}\right),\;\;{\rm{s.t.}}\;\;F\left({\boldsymbol{x}}_{\mathrm{a}\mathrm{d}\mathrm{v}}\right)\ne F\left({\boldsymbol{x}}_{0}\right).\end{split}\right.

    由于F(x)只给出top-1分类结果,因此该问题为Hard-label问题,即每次添加完扰动后,只能通过查询模型来获取结果扰动结果,需要在查询次数尽可能低的情况下,找到一个较为接近x0的对抗样本xadv.

    在本节中,首先对所提出算法的总体架构进行介绍,其次对所提算法中各个主要部分进行说明.

    算法首先通过计算获取到掩模,以掩模和原始样本作为问题的输入,而后通过2个阶段来求解该问题.算法主要流程如下.

    1)先将原始图像输入到基于自注意力机制实现的网络模型中,再通过基于深度泰勒分解的方法来获取到原始图像的注意力图,并以注意力图作为掩模,进入第1阶段.

    2)第1阶段为线性方向的二分逼近,其过程为:在以原始样本点为中心的超球面O1上进行随机采样,采样分布为一个低频分布,采样所得到的噪声为低频噪声.将采样得到的噪声与掩模进行Hadamard运算,再对噪声进行线性方向上的二分逼近,找到离样本点相对较近的一个对抗点.该过程反复进行多次,取最终L2距离最小的对抗样本点作为第2阶段的输入.

    3)第2阶段为基于几何探测的边界逼近,其过程为:在以原始样本点和对抗点连线的中点为中心的超球面O2上取点,取点位置在对抗点的邻域附近,取得的点为待检测样本点.若探测的点为对抗样本点,则以探测到的对抗样本点为新的对抗点;若探测的点不为对抗样本点,则对抗样本点位置不变.该过程也执行多次,直至查询次数耗尽,最终获得的对抗样本点即为该问题的解.FastGBA算法的架构流程如图1所示.

    图  1  FastGBA算法架构
    Figure  1.  FastGBA algorithm architecture

    Brunner等人[28]的工作证明了柏林噪声[29]在对抗攻击中的作用,陈伟等人[30]的工作证明了Simplex 噪声[31]在对抗攻击中的作用.柏林噪声与Simplex 噪声均属于低频噪声,在连续的空间内具有相近的像素值,像素值变化缓慢,具有较强的低频属性,在对抗攻击中效果显著优于高斯噪声等白噪声.

    Guo等人[32-33]的工作进一步提出了控制低频噪声频率的方法,可以通过离散余弦变换及其逆变换来控制低频系数.首先生成一个全0矩阵;其次将矩阵左上角的数值进行随机赋值;再将矩阵经过离散余弦变换或逆离散余弦变换来获得低频噪声;最后通过控制0像素值的比例,就可以控制低频噪声的生成.

    在本文中,采样方式与Guo等人[32-33]的方式一致,首先生成一个与原图像尺寸相同的全0矩阵,记图像大小为W × W;其次将矩阵的左上角大小为(W/8)× (W/8)的矩阵的数值全部替换为从高斯分布中采样所得的数值;最后对此矩阵进行逆离散余弦变换,便得到一个低频噪声.低频噪声图如图2所示:

    图  2  经逆离散余弦变换所得的低频噪声
    Figure  2.  Low frequency noise obtained by inverse discrete cosine transform

    目前,在对抗样本的生成方案中,大多数的算法都是将扰动施加到整个图像中,几乎每一个像素都会受到扰动.Brunner等人[28]提出了使用掩模的方法来控制扰动,并且成功证明了将扰动限制在特定区域是有利于攻击的.但该方法的掩模生成方案较为粗糙,即该掩模直接通过2张图像的减法运算得到,因此这种方案所标示的特定区域十分依赖于跟当前图像相减的那张图像,故而生成的掩模只能够单一地应用于有目标攻击.在进行无目标攻击时,这种方案并不能准确地指示出特定区域.

    最近关于视觉Transformer的相关工作[34-35]表明,不论是人类视觉系统还是神经网络对图像进行识别,必然都有重点关注的特征区域,即兴趣区域(region of interest, ROI).对感兴趣的区域进行攻击,同时尽量减小对其他区域像素的扰动,可以得到L2距离更小的对抗样本.

    本文引入了基于自注意力机制生成的注意力图,并利用注意力图作为掩模.Chefer等人[35]近期提出了一种新的关于Transformer的解释机制的方法来生成注意力图,本文引用此方法生成的注意力图作为掩模,令掩模与每次生成的低频噪声进行Hadamard乘积运算.图3展示了原图、注意力图以及二者的叠加可视化图像.

    图  3  注意力机制的图示
    Figure  3.  Illustration of attention mechanism

    实验发现,通过计算所得到的掩模在非ROI区域的权值不一定为0,这需要设定一个阈值δ,将小于δ的数值变为0,计算方式可表述为:

    {\boldsymbol{mask}}=\frac{{\boldsymbol{mask}}\odot \left(1+{\rm{sgn}}\left({\boldsymbol{mask}}-\delta \right)\right)}{2},\delta\in\left(\mathrm{0,1}\right),

    其中\rm{sgn}({\Large \cdot} )为符号函数,maskδ的运算借助Python的广播机制来进行,得到的掩模对采样的噪声计算方式为:

    {\boldsymbol{noise}}={\boldsymbol{noise}} \odot {\boldsymbol{mask}}.
    {\boldsymbol{noise}}=\frac{{\boldsymbol{noise}}}{{\left|\right|{\boldsymbol{noise}}\left|\right|}_{p}},p\in \left\{\mathrm{1,2},\infty \right\}.

    边界攻击通常需要从一个已经是对抗性的样本点出发,逐渐减小与原样本的距离.我们发现Cheng等人[27]在sign-opt算法中所使用的基于二分逼近的快速算法十分有效,它直接从高斯分布中采样,通过100次循环来查找相对原样本较近的对抗样本点.但这样做存在的一个明显的缺点是采样的高斯噪声与原图像叠加后不能确保得到的图像是对抗性的.

    本文对文献[27]中这一操作进行了改进:首先从高斯分布中采样随机噪声θ,对θ使用逆离散余弦变换,令噪声转换至低频空间中;其次对θ和掩模进行Hadamard运算并进行向量单位化,得到一个新的扰动方向,在此方向上,与以原始图像为中心、初始距离为300的超球面上所得的交点进行二分逼近,得到该方向上L2距离最小的对抗点.反复进行上述过程,直至设定的二分逼近次数耗尽.操作如图4所示.

    图  4  二分逼近示意图
    Figure  4.  Binary approximation diagram

    算法1. 一次线性方向的二分逼近算法.

    输入:原始图像x0,原始图像标签y0,神经网络分类器F,当前最小L2距离dbest,最小距离所对应的方向θbest,图像尺寸大小w,图像掩模mask

    输出:噪声较大的对抗样本xadv.

    θ~LowFrequency(w);/*生成低频噪声*/

    θ=θ \odot mask;/*噪声与掩模Hadamard运算*/

    θ= θ/ ||θ||2;/*噪声向量单位化*/

    θ= dbest × θ;/*取该噪声方向与当前最优L2距    离所形成的超平面的交点*/

    ⑤ if F(x0+θ) ≠ y0 do

    ⑥  d = binarySearch(x0,300,F);/*二分逼近*/

    ⑦  if d < dbest do /*更新距离与方向*/

    ⑧    θbest = θ

    ⑨    dbest = d

    ⑩  end if

    ⑪ end if

    xadv=x0+ θbest×dbest

    ⑬ return xadv.

    在经过线性二分逼近后,所找到的对抗点已经十分靠近决策边界,最大程度地利用好查询次数,也就是每经过一次查询后,都可以找到一个距离原图像更近的对抗点,这样就可以极大程度地减小距离.经过SurFree 攻击算法这种基于几何性质的算法启发,本文提出了基于几何性质的邻域探测算法.

    考虑当前对抗点xadvx0的中点xmid,以xmid为中心、 d(x0, xadv)/2为半径的超球面O2,由几何性质可知,球内的任意一条弦的长度都不超过球的直径,即性质1.

    性质1.\forall xcandidate\in O2d(xcandidate, x0) \leqslant d(xadv, x0),当且仅当xcandidate=xadv时,d(xcandidate, x0)= d(xadv, x0).

    在当前对抗点的邻域中,可以大概率地找到令图像距离减小且保持对抗性的点.本文提出算法2来选取具体的待检测样本点,具体思路为:通过构建正交单位向量uv来计算出待检测样本点.u为原始样本点指向对抗样本点的方向的一个单位向量,v为与u正交的一个单位向量.通过uv不断地进行矢量相加,再单位化的计算,令指向方向与超球面O2的交点更加靠近xadv,在交点靠近xadv的邻域后,选取当前方向与超球面O2的交点作为待检测样本点,此过程中无需进行模型查询,计算的详细过程参见算法2.

    算法2. 待检测样本点选取算法.

    输入:原始图像x0,图像掩模mask,对抗样本xadv,图像尺寸大小w

    输出:待检测样本点xcandidate,对抗样本点与原始样本点的中点xmid,单位向量uv.

    u=(xadvx0) ⁄ d (xadv, x0);/*计算单位向量u*/

    v=calculate(u);/*利用低频采样,计算出一个    与u正交的单位向量v*/

    i=0;

    ④ while i\leqslant 2 do

    ⑤  i++;

    ⑥  v=u+v

    ⑦  v = v / ||v||2

    ⑧ end while

    xmid = (x0+xadv)/2;/*计算中点*/

    xcandidate = xmid+v×(d (xadv, x0 )/2); /*计算出待检测    样本点*/

    ⑪ return xcandidate, xmid , u , v.

    由算法2所计算出的候选样本点存在概率不具有对抗性,面对这种情况,需要继续执行基于几何性质的邻域探测.令算法2得到的uv进行矢量叠加,得到新的方向,计算此方向与超球面的交点,查询此样本点是否为对抗点,不为对抗点则继续执行算法2.详细的探测过程见算法3.待检测样本点选取示意图如图5所示.

    图  5  待检测样本点选取示意图
    Figure  5.  Schematic diagram of candidate sample point selection

    算法3. 一次邻域探测算法.

    输入:原始图像x0,原始图像标签y0,神经网络分类器F,对抗样本点xadv,图像掩模mask,图像尺寸大小w

    输出:一个新的对抗样本点xadv.

    xcandidate, xmid, u ,v = 算法2(x0, xadv,mask,w);

    d=d(xadv, x0);

    ③ while j\leqslant 2 do

    ④  j++;

    ⑤  if F(xcandidate )==y0 do

    ⑥   v=u+v

    ⑦   v= v/ ||v||2

    ⑧   xcandidate = xmid+v×(d/2);

    ⑨  else

    ⑩   xadv= xcandidate

    ⑪   break;

    ⑫  end if

    ⑬ end while

    ⑭ return xadv.

    由算法2可知,待检测样本点都处于以对抗样本点和原始样本点连线的中点为球心的超球面上.由性质1可知,这种待检测样本点与原始样本点的距离都小于当前对抗样本点与原始样本点的距离.由算法3可以不断检查待检测样本点,当发现检测的样本点具有对抗性,更新此样本点为当前对抗样本点.不断重复算法3过程,便可以不断逼近黑盒模型的决策边界,即不断缩小L2距离.

    选用4个深度学习神经网络模型作为黑盒攻击的替代模型,网格模型分别为ResNet-18[1],ResNet-152[1],DenseNet-161[4],EfficientNet-B4[5].这4个模型的top-1正确率如表1 所示.

    表  1  黑盒替代模型及其top-1准确率
    Table  1.  Black Box Substitutive Models and Their top-1 Accuracies
    模型top-1正确率
    ResNet-18[1]0.6976
    ResNet-152[1]0.7831
    DenseNet-161[4]0.7765
    EfficientNet-B4[5]0.8260
    下载: 导出CSV 
    | 显示表格

    实验的侧重点是评估在相同限制条件下不同算法的攻击成功率,故本文仅从ImageNet数据集中每个标签挑选一张可以被表1中4个模型正确分类的图像来进行实验,共计1000张图像,并且将图像大小放缩至3×224×224.

    实验平台环境:Intel Xeon Gold 5218 2.30 GHz (CPU),NVIDIA Tesla V100S ×2(GPU),188 GB内存(DDR4),Ubuntu 18.04.5 LTS (操作系统),Python 3.8,Pytorch 1.7.1(深度学习框架).

    算法采用L2距离作为扰动评价标准,并以攻击成功率作为算法优越性的衡量标准.针对单张图像,每一种攻击算法的攻击效果都不尽相同,不能够准确地反映出算法效率,因此在数据集上总体的攻击成功率更加能够说明算法效率的指标.总体的攻击成功率计算公式为:

    {Success}_{\mathrm{r}\mathrm{a}\mathrm{t}\mathrm{e}}=\frac{{N}_{\mathrm{a}\mathrm{d}\mathrm{v}}}{N},

    其中N表示样本总数,本文中N=1000,Nadv表示经过有限次查询后产生的对抗样本的L2距离小于给定L2距离的样本数量.

    首先对FastGBA算法阈值δ的取值进行实验,并提出了δ的动态改变方案.随后,选取发表于CVPR 2021的SurFree[25]攻击算法以及发表于IEEE S&P 2020的HSJA[24]攻击算法作为基准(baseline),进行了对比实验.其中SurFree攻击算法采用原作者的开源代码,HSJA攻击算法采用Foolbox[36]中的开源代码.最后进行了消融实验,分析了本文算法对实验结果的影响.

    经过多次实验,发现将δ设置为一个固定数值时,无法得到一个较优的胜率,即δ不存在一个固定的最优值.对每张不同的图像,最优的δ值都各不相同,故此设计了一个逐步递减的δ值动态改变方案,即在前100轮随机查找最近点时,每10轮令δ值递减0.05,δ初始值设置为0.5.

    在500次查询次数的限制下,如图6(b)所示,在小扰动范围内(扰动大小处于0~10)时,固定δ值时的效果几乎差不多,没有明显的分化.如图6(c)所示,在中等扰动范围内(扰动大小在10~20)时,开始出现分化,呈现出固定δ值取值较小时,效果越好.如图6(d)所示,在大扰动范围内(扰动大小超过20),分化变得很明显,也是固定δ值取值较小时效果越好.

    图  6  不同范围内扰动下攻击成功率的变化曲线
    Figure  6.  Changes curves of attack success rate under different ranges of disturbance

    而通过图6可以发现δ值动态改变方案可以在每一个阶段都超越固定值方案,效果优于固定值方案.在扰动大小大于5时,动态改变方案效果显著优于固定值方案,成功率的提升在5%~10%,扰动越大,攻击成功率的提升越明显.

    同时还可以发现,若δ值取值过大,在中等扰动以及大扰动的情况下,攻击成功率会显著下降.这一现象说明基于自注意力机制所产生的掩模所标识的扰动区域基本上是准确的,其以大数值所标识的区域基本上是深度学习模型所较为关注的特征区域,应当予以保留并在这些区域上进行扰动添加.

    本文所提出的动态改变方案旨在寻找到最适合单张图像的δ值,抹除掉掩模中对于非重要特征区域的扰动,从而减小图像的整体扰动,提升成功率.

    表2展示了在500次、1000次、2000次的查询次数限制下,3种算法在4个深度学习模型上所产生的对抗样本小于目标L2距离的成功率.通过表2可知:

    表  2  在有限查询次数下达到目标距离的成功率
    Table  2.  Success Rate of Reaching the Target Distance Under the Limitation of Query Times
    攻击模型目标L2距离查询次数为500查询次数为1000查询次数为2000
    HSJA[24]SurFree[25]FastGBAHSJA[24]SurFree[25]FastGBAHSJA[24]SurFree[25]FastGBA
    ResNet-18[1]200.4600.7550.8560.6740.8680.9170.9060.9540.945
    100.2550.4780.6230.4290.6320.7570.6830.7910.856
    50.1390.2950.3720.2580.4100.5200.4140.5510.682
    10.0310.0780.0870.0470.1230.1600.0670.1890.252
    ResNet-152[1]200.2780.4740.760 0.4560.6280.860 0.7420.7940.919
    100.1560.2410.4790.2570.3840.6330.4770.5690.776
    50.0990.1160.2400.1590.2050.3770.2600.3440.528
    10.0600.0180.0740.0640.0330.1010.0710.0630.143
    DenseNet-161[4]200.2700.4620.778 0.4540.6530.865 0.7430.8050.923
    100.1560.2590.5030.2550.3960.6520.4840.5740.797
    50.1050.1420.2900.1740.2280.4140.2830.3610.582
    10.0630.0360.0960.0740.0510.1340.0840.0990.185
    EfficientNet-B4[5]200.2630.4280.748 0.4540.6130.847 0.7600.7920.912
    100.1710.2240.4600.2520.3740.6260.4990.5570.773
    50.1230.1270.2680.1790.1970.3950.2850.3150.547
    10.0800.0220.1020.0850.0430.1360.0930.0710.187
    下载: 导出CSV 
    | 显示表格

    1)FastGBA攻击算法具有更强的泛化性.在查询次数为2000且L2距离小于等于20的限制下,FastGBA攻击算法在4种模型上的攻击成功率均超过了90%,而HSJA攻击算法以及SurFree攻击算法在相同的限制下,在4种模型上的表现并不稳定.在ResNet-18模型上,二者都可以达到90%以上的成功率;与之不同的是在ResNet-152以及EfficientNet-B4模型上,二者的成功率甚至都没有超过80%;在DenseNet-161模型上,FastGBA攻击算法的成功率领先HSJA攻击算法18%,领先SurFree攻击算法11.8%,这表明FastGBA攻击算法的泛化性要优于HSJA攻击算法以及SurFree攻击算法.

    2)FastGBA攻击算法具有更强的攻击性能.在查询次数限制在1000次内时,FastGBA攻击算法的成功率优于HSJA攻击算法以及SurFree攻击算法.限制条件越苛刻,FastGBA攻击算法的优势就越明显.在攻击EfficientNet-B4这个高准确率模型时,限制查询次数为500且L2距离小于等于1时,FastGBA攻击算法的成功率是HSJA攻击算法的1.28倍,是SurFree攻击算法的4.63倍.

    3)FastGBA攻击算法产生的对抗样本具有更好的视觉效果.对人类视觉系统而言,L2距离小于等于10时,对抗样本与原图像已经非常相似;L2距离小于等于5时,人眼已经几乎无法区分对抗样本与原图像.通过表2数据可以发现,在限制L2距离小于等于10的条件下,FastGBA攻击算法的表现全面超越了HSJA攻击算法以及SurFree攻击算法.

    4)FastGBA攻击算法更加稳定.ResNet-152模型相比于ResNet-18模型,神经网络层数更多,可以拟合更加复杂的数据分布,能够学习到的数据特征也就越多.攻击算法在面临网络层数加深的此类情况时会面临攻击性能下降的问题,在查询次数为1000次、L2距离限制为20时,HSJA攻击算法成功率下降了21.8%,SurFree攻击算法成功率下降了24%,而FastGBA攻击算法成功率仅下降了5.7%,这表明FastGBA攻击算法相较于HSJA攻击算法以及SurFree攻击算法更加稳定.

    图7展示了在500次、1000次、2000次查询限制下,3种攻击算法在4个深度学习模型上的攻击成功率与扰动大小间的关系.图7结果表明,3种算法均是扰动越大,攻击率成功率越高.

    图  7  扰动大小与攻击成功率的变化曲线
    Figure  7.  The change curve between disturbance sizes and attack success rates

    通过图7可以发现:

    1)4个模型上都存在在扰动大小相同的情况下,FastGBA攻击算法的攻击成功率基本上都高于SurFree攻击算法以及HSJA攻击算法.在成功率一致的情况下,FastGBA攻击算法所产生的扰动总体上都小于SurFree攻击算法以及HSJA攻击算法.

    2)FastGBA攻击算法的收敛速度更快.在低查询量时(查询次数为500),3种算法在4个模型上都未表现出收敛的趋势,但FastGBA攻击算法的成功率均一直领先于HSJA攻击算法和SurFree攻击算法;在中等查询量时(查询次数为1000),FastGBA攻击算法与SurFree攻击算法在ResNet-18模型上已经表现出收敛趋势,在其余3个高正确率模型上尚未表现出收敛趋势,HSJA攻击算法尚未表现出收敛趋势;在查询次数较高时(查询次数为2000),可以发现FastGBA攻击算法在4个模型上都已经表现出明显的收敛趋势,而SurFree攻击算法在ResNet-18模型上已经表现出收敛趋势,在其余3个高正确率模型上尚未表现出明显的收敛趋势,HSJA攻击算法的收敛趋势一直不明显.以上表明了FastGBA攻击算法相比SurFree攻击算法以及HSJA攻击算法具有更快的收敛速度.

    在较深的神经网络模型上,即ResNet-152,DenseNet-161,EfficientNet-B4上,查询次数为500时,SurFree攻击算法与HSJA攻击算法的成功率与扰动大小呈现出明显的线性相关,FastGBA攻击算法的成功率则呈现出曲线上升.这进一步说明了FastGBA攻击算法的效率更高,收敛速度更快.

    3) FastGBA存在2个不足. 一是想要接近100%成功率地攻破一个深度学习模型,3种算法均需要使用较大的扰动.因此,如何在低查询量、低扰动的情况下,尽可能地提高攻击成功率需要进一步研究.二是在较浅的神经网络模型ResNet-18上使用高查询量(查询次数为2000)和高扰动(L2距离大于20)时, SurFree攻击算法略优于FastGBA攻击算法,尽管在此时二者差距不超过1%.这可能是由于FastGBA攻击算法采用邻域探测进行对抗样本,发现导致FastGBA攻击算法容易陷入局部最优解.这表明在此种条件下,FastGBA攻击算法将来还需要进一步优化与提高.

    表3展示了分别为在500次、1000次、2000次查询限制下,3种算法在4个深度学习模型上产生的对抗样本.在中低查询量时(查询次数小于等于1000),FastGBA攻击算法所产生的图像由于应用了掩模的缘故,扰动较为集中,常常会集中在图像的某一区域内,随着查询次数的增加,这些扰动也在逐渐减小,所产生的对抗样本质量逐渐提高.SurFree攻击算法与HSJA攻击算法所产生的扰动则会均匀地作用在整张图像上,随着查询次数的增加,二者所产生的对抗样本的质量也在逐渐提高.

    表  3  相同查询次数限制下对同一图像的攻击结果
    Table  3.  Attack Results on the Same Images Under the Limit of Same Query Times
    攻击模型攻击算法查询次数为500查询次数为1000查询次数为2000
    ResNet-18[1]HSJA[24] L2距离为41.06 L2距离为27.83 L2距离为16.23
    SurFree[25] L2距离为27.41 L2距离为20.85 L2距离为15.11
    FastGBA L2距离为12.44 L2距离为 9.37 L2距离为5.88
    ResNet-152[1]HSJA[24] L2距离为66.84 L2距离为54.33 L2距离为38.42
    SurFree[25] L2距离为52.74 L2距离为39.93 L2距离为26.60
    FastGBA L2距离为25.31 L2距离为12.38 L2距离为 6.86
    DenseNet-161[4]HSJA[24] L2距离为46.77 L2距离为32.47 L2距离为17.32
    SurFree[25] L2距离为32.94 L2距离为23.58 L2距离为14.11
    FastGBA L2距离为 9.14 L2距离为 5.86 L2距离为3.45
    EfficientNet-B4[5]HSJA[24] L2距离为20.67 L2距离为9.32 L2距离为4.10
    SurFree[25] L2距离为 8.02 L2距离为4.79 L2距离为2.78
    FastGBA L2距离为 3.23 L2距离为2.31 L2距离为1.71
    下载: 导出CSV 
    | 显示表格

    在实验中,FastGBA攻击算法与SurFree攻击算法都使用了低频噪声来进行攻击,HSJA攻击算法使用的则为高斯噪声.低频噪声的平滑性可以令图像产生更加逼近真实图像的纹理特征.分类器会将低频噪声所添加的特征提取出来与图像原本特征一同进行分类,大大降低了正确类别所对应的置信度;而高斯噪声较为尖锐,不易组成更加贴近真实图像的特征,且也容易被线性滤波器滤除,造成攻击失效.这也是在低查询量时(查询次数为500),HSJA攻击算法表现较差的原因之一.SurFree攻击算法虽然使用了低频噪声来进行实验,但其在初始化对抗样本时直接使用了基于均匀噪声的线性初始化,而导致生成的对抗样本在视觉上无法体现出其使用了低频噪声.

    本文对算法中的组成模块进行了消融实验,分析了低频噪声与掩模对算法性能的影响.

    图8展示了针对ResNet-18模型,在查询次数为500的限制下,各种模块对于成功率的影响.当同时使用了低频噪声与自注意力机制生成的掩模时,FastGBA攻击算法的效果最好;低频噪声和掩模2个模块都不使用时,攻击成功率最低.

    图  8  消融实验
    Figure  8.  Ablation study

    可以发现,FastGBA攻击算法在仅使用高频噪声即高斯噪声时,攻击效率明显低于仅使用低频噪声.在仅使用低频噪声的情况下,攻击成功率有了大幅度的提高.在使用高频噪声与掩模的情况下,攻击成功率也同样明显优于仅使用高频噪声.

    在将低频噪声与掩模结合至FastGBA攻击算法中时,成功率得到进一步提升,超过其余的3种情形.

    实验证明,低频噪声和掩模会对攻击成功率造成较大的影响,也给对抗防御提供了新的思路,可以从消除低频噪声和区域噪声这两点入手,进行防御训练.

    针对Hard-label问题本文提出了FastGBA攻击算法, 其核心思想为:在当前对抗样本的邻域,通过几何性质,快速发现新的对抗样本.实验结果表明本文所提出的算法能够有效地提高对抗攻击的成功率,并且相比于当前的最好算法能够在较低查询率下有着更加明显的效果.

    本研究仍然存在不足之处:FastGBA攻击算法采取邻域探测,易陷入局部最优解.因此,下一步拟对FastGBA攻击算法如何跳出局部最优解做进一步探究.并且,在本文所提出算法中,低频噪声的生成采取了固定频率的生成,没有结合样本的原始纹理特征去做考虑,因此未来将对低频噪声的自适应生成做进一步的研究,探究噪声生成频率对攻击算法成功率的影响.

    作者贡献声明:刘昊提出了算法思路和实验方案;张泽辉、夏晓帆对实验方案提出了改进意见并修改论文;高铁杠提出了指导意见并修改论文.

  • 图  1   本文所提方法的框架

    Figure  1.   The framework of our proposed method

    图  2   Twitter15和Twitter16数据集上使用不同数量标注样本的检测准确率

    Figure  2.   Detection accuracy on Twitter15 and Twitter16 datasets with different amounts of labeled examples

    图  3   不同扰动量下的检测准确率

    Figure  3.   Detection accuracy with varying perturbation rate

    图  4   不同超参数下的检测准确率

    Figure  4.   Detection accuracy with varying hyperparameters

    表  1   数据集统计信息

    Table  1   Statistics of the Datasets

    统计项目 Twitter15 Twitter16
    源推文 1490 818
    用户 276663 173487
    关联推文 331612 204820
    证实为假的传闻 370 205
    证实为真的传闻 372 205
    未经证实的传闻 374 203
    非传闻 374 205
    下载: 导出CSV

    表  2   各方法在Twitter15和Twitter16数据集上的检测效果

    Table  2   Detection Results of Each Method on Twitter15 and Twitter16 Datasets %

    方法 Twitter15 Twitter16
    准确率 F1(U) F1(N) F1(T) F1(F) 准确率 F1(U) F1(N) F1(T) F1(F)
    BERT[38] 72.13 70.67 90.22 66.22 58.18 73.54 78.85 80.70 79.29 48.58
    RvNN[24] 62.86 55.61 66.88 63.93 63.07 50.03 40.33 43.71 59.93 55.29
    BiGCN[10] 72.44 68.49 73.54 79.22 69.37 70.31 60.54 68.07 82.41 68.42
    UDGCN[10] 74.17 72.58 70.94 81.55 71.45 69.38 62.05 59.84 84.37 68.83
    GACL[12] 78.66 74.24 91.78 77.01 69.44 80.77 84.37 81.86 88.60 66.33
    本文方法 81.02 77.99 92.08 78.15 73.82 82.31 84.87 82.26 90.32 69.07
    注:Twitter15上每类别使用100个标注样本,Twitter16上每类别使用50个标注样本. 黑体数值表示最优值.
    下载: 导出CSV

    表  3   本文方法与其变体在Twitter15和Twitter16数据集上的检测准确率

    Table  3   Detection Accuracy of Our Method and Its Variants on Twitter15 and Twitter16 Datasets %

    方法 Twitter15的每个类别使用标注样本数量 Twitter16的每个类别使用标注样本数量
    10 20 30 50 100 10 20 30 40 50
    本文方法 68.74 71.1 73.94 75.91 81.02 73.23 76.46 79.54 82.15 82.31
    本文方法(w/o_ad) 63.86 70.24 73.15 75.2 80.55 71.54 76.00 78.46 81.23 80.92
    本文方法(w/o_mi) 63.07 70.94 70.31 74.17 79.84 69.85 76.31 78.15 80.46 81.54
    注:黑体数值表示最优值.
    下载: 导出CSV
  • [1] Amrita B,舒凯,高旻,等. 网络信息生态系统中的虚假信息:检测、缓解与挑战[J]. 计算机研究与发展,2021,58(7):1353−1365 doi: 10.7544/issn1000-1239.2021.20200979

    Amrita B, Shu Kai, Gao Min, et al. Disinformation in the online information ecosystem: Detection, mitigation and challenges[J]. Journal of Computer Research and Development, 2021, 58(7): 1353−1365 (in Chinese) doi: 10.7544/issn1000-1239.2021.20200979

    [2] 亓鹏,曹娟,盛强. 语义增强的多模态虚假新闻检测[J]. 计算机研究与发展,2021,58(7):1456−1465 doi: 10.7544/issn1000-1239.2021.20200804

    Qi Peng, Cao Juan, Sheng Qiang. Semantics-enhanced multi-modal fake news detection[J]. Journal of Computer Research and Development, 2021, 58(7): 1456−1465 (in Chinese) doi: 10.7544/issn1000-1239.2021.20200804

    [3] 徐铭达,张子柯,许小可. 基于模体度的社交网络虚假信息传播机制研究[J]. 计算机研究与发展,2021,58(7):1425−1435 doi: 10.7544/issn1000-1239.2021.20200806

    Xu Mingda, Zhang Zike, Xu Xiaoke. Research on spreading mechanism of false information in social networks by motif degree[J]. Journal of Computer Research and Development, 2021, 58(7): 1425−1435 (in Chinese) doi: 10.7544/issn1000-1239.2021.20200806

    [4]

    Shu Kai, Sliva A, Wang Suhang, et al. Fake news detection on social media: A data mining perspective [C]//Proc of the 23rd ACM SIGKDD Int Conf on Knowledge Discovery & Data Mining. New York: ACM, 2017, 19(1): 22−36

    [5]

    Shu Kai, Mahudeswaran D, Wang Suhang, et al. Hierarchical propagation networks for fake news detection: Investigation and exploitation[C]//Proc of the 14th Int AAAI Conf on Web and Social Media. Palo Alto, CA: AAAI, 2020: 626−637

    [6]

    Zhou Xinyi, Zafarani R. A survey of fake news: Fundamental theories, detection methods, and opportunities[J]. ACM Computing Surveys, 2020, 53(5): 1−40

    [7]

    Lu Yiju, Li Chengte. GCAN: Graph-aware co-attention networks for explainable fake news detection on social media[C]//Proc of the 58th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2020: 505−514

    [8]

    Ma Jing, Gao Wei, Mitra P, et al. Detecting rumors from microblogs with recurrent neural networks[C]//Proc of the 25th Int Joint Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2016: 3818–3824

    [9]

    Wu Lianwei, Rao Yuan, Zhao Yongqiang, et al. DTCA: Decision tree-based co-attention networks for explainable claim verification[C]//Proc of the 58th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2020: 1024−1035

    [10]

    Bian Tian, Xiao Xi, Xu Tingyang, et al. Rumor detection on social media with bi-directional graph convolutional networks[C]//Proc of the 34th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2020: 549−556

    [11]

    Nguyen V, Sugiyama K, Nakov P, et al. Fang: Leveraging social context for fake news detection using graph representation[C]//Proc of the 29th ACM Int Conf on Information & Knowledge Management. New York: ACM, 2020: 1165−1174

    [12]

    Sun Tiening, Qian Zhong, Dong Sujun, et al. Rumor detection on social media with graph adversarial contrastive learning[C]//Proc of the 34th ACM Web Conf. New York: ACM, 2022: 2789−2797

    [13]

    Yuan Chunyuan, Ma Qianwen, Zhou Wei, et al. Jointly embedding the local and global relations of heterogeneous graph for rumor detection[C]//Proc of the 19th IEEE Int Conf on Data Mining. Piscataway, NJ: IEEE, 2019: 796−805

    [14]

    Tishby N, Pereira F C, Bialek W. The information bottleneck method[J]. arXiv preprint, arXiv: physics/0004057, 2000

    [15]

    Alemi A A, Fischer I, Dillon Joshua V, et al. Deep variational information bottleneck[C/OL]//Proc of the 5th Int Conf on Learning Representations. New York: OpenReview.net, 2017[2023-11-14].https://openreview.net/pdf?id=HyxQzBceg

    [16]

    Kwon S, Cha M, Jung K, et al. Prominent features of rumor propagation in online social media[C]//Proc of the 13th IEEE Int Conf on Data Mining. Piscataway, NJ: IEEE, 2013: 1103−1108

    [17]

    Wu Ke, Yang Song, Zhu K Q. False rumors detection on sina weibo by propagation structures[C]//Proc of the 31st IEEE Int Conf on Data Engineering. Piscataway, NJ: IEEE, 2015: 651−662

    [18]

    Yang Fan, Liu Yang, Yu Xiaohui, et al. Automatic detection of rumor on sina weibo[C/OL]//Proc of the 18th ACM SIGKDD Workshop on Mining Data Semantics. New York: ACM, 2012[2023-11-14].https://dl.acm.org/doi/10.1145/2350190.2350203

    [19]

    Zhao Zhe, Resnick P, Mei Qiaozhu. Enquiring minds: Early detection of rumors in social media from enquiry posts[C]//Proc of the 24th Int Conf on World Wide Web. New York: ACM, 2015: 1395−1405

    [20]

    Castillo C, Mendoza M, Poblete B. Information credibility on twitter[C]//Proc of the 20th Int Conf on World Wide Web. Berlin: Springer, 2011: 675−684

    [21]

    Qi Peng, Cao Juan, Yang Tianyun, et al. Exploiting multi-domain visual information for fake news detection[C]//Proc of the 19th IEEE Int Conf on Data Mining. Piscataway, NJ: IEEE, 2019: 518−527

    [22]

    Schwarz S, Theóphilo A, Rocha A. EMET: Embeddings from multilingual-encoder transformer for fake news detection[C]//Proc of the 45th IEEE Int Conf on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE, 2020: 2777−2781

    [23]

    Udandarao V, Maiti A, Srivatsav D, et al. Cobra: Contrastive bi-modal representation algorithm [J]. arXiv preprint, arXiv: 2005.03687, 2020

    [24]

    Ma Jing, Gao Wei, Wong K. Rumor detection on Twitter with tree-structured recursive neural networks[C]//Proc of the 56th Annual Meeting of the ACL. Stroudsburg, PA: ACL, 2018: 1980−1989

    [25]

    Yu Feng, Liu Qiang, Wu Shu, et al. A convolutional approach for misinformation identification[C]//Proc of the 26th Int Joint Conf on Artificial Intelligence. Palo Alto, CA : AAAI, 2017: 3901−3907

    [26]

    Ma Jing, Gao Wei, Wong K. Detect rumors on Twitter by promoting information campaigns with generative adversarial learning[C]//Proc of the 31st World Wide Web Conf. New York: ACM, 2019: 3049−3055

    [27]

    Wei Penghui, Xu Nan, Mao Wenji. Modeling conversation structure and temporal dynamics for jointly predicting rumor stance and veracity[C]//Proc of the 2019 Conf on Empirical Methods in Natural Language Processing and the 9th Int Joint Conf on Natural Language Processing. Stroudsburg, PA: ACL, 2019: 4786−4797

    [28]

    Jin Zhiwei, Cao Juan, Guo Han, et al. Multimodal fusion with recurrent neural networks for rumor detection on microblogs[C]//Proc of the 25th ACM Int Conf on Multimedia. New York: ACM, 2017: 795−816

    [29]

    Li Quanzhi, Zhang Qiong, Si Luo. Eventai at Semeval-2019 task 7: Rumor detection on social media by exploiting content, user credibility and propagation information[C]//Proc of the 13th Int Workshop on Semantic Evaluation. Stroudsburg, PA: ACL, 2019: 855−859

    [30]

    Li Tianle, Sun Yushi, Hsu S, et al. Fake news detection with heterogeneous Transformer [J]. arXiv preprint, arXiv: 2205.03100, 2020

    [31]

    Mehta N, Pacheco Maria L, Goldwasser D. Tackling fake news detection by continually improving social context representations using graph neural networks[C]//Proc of the 60th Annual Meeting of the ACL Stroudsburg. Stroudsburg, PA: ACL, 2022: 1363−1380

    [32]

    Ma Shuang, Mcduff D, Song Y. Unpaired image-to-speech synthesis with multimodal information bottleneck[C]//Proc of the 18th IEEE/CVF Int Conf on Computer Vision (ICCV). Piscataway, NJ: IEEE, 2019: 7597−7606

    [33]

    Wang Junxia, Zheng Yuanjie, Ma Jun, et al. Information bottleneck-based interpretable multitask network for breast cancer classification and segmentation [J/OL]. Medical Image Analysis, 2023[2023-11-14].https://www.sciencedirect.com/science/article/abs/pii/S1361841522003152

    [34]

    Zhang Cenyuan, Zhou Xiang, Wan Yixin, et al. Improving the adversarial robustness of nlp models by information bottleneck[J]. arXiv preprint, arXiv: 2206.05511, 2022

    [35]

    Mahabadi K, Belinkov Y, Henderson J. Variational information bottleneck for effective low-resource fine-tuning[C/OL]//Proc of the 9th Int Conf on Learning Representations. New York: OpenReview. net, 2021[2023-11-14].https://openreview.net/forum?id= kvhzKz-_DMF

    [36]

    Wang Jihong, Luo Minnan, Li Jundong, et al. Empower post-hoc graph explanations with information bottleneck: A pre-training and fine-tuning perspective[C]//Proc of the 29th ACM SIGKDD Conf on Knowledge Discovery and Data Mining. New York: ACM, 2023: 2349–2360

    [37]

    Sun Qingyun, Li Jianxin, Peng Hao, et al. Graph structure learning with variational information bottleneck[C]//Proc of the 36th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2022: 4165−4174

    [38]

    Devlin J, Chang Mingwei, Lee K, et al. BERT: Pre-training of deep bidirectional transformers for language understanding[C]//Proc of the 2019 Conf of the North American Chapter of the ACL: Human Language Technologies. Stroudsburg, PA: ACL, 2019: 4171−4186

    [39]

    Ma Jing, Gao Wei, Wong K. Detect rumors in microblog posts using propagation structure via kernel learning[C]//Proc of the 55th Annual Meeting of the ACL. Stroudsburg, PA: ACL, 2017: 708−717

    [40]

    Federici M, Dutta A, Forré P, et al. Learning robust representations via multi-view information bottleneck[C/OL]//Proc of the 8th Int Conf on Learning Representations. New York: OpenReview. net, 2020[2023-11-14].https://openreview.net/pdf?id=B1xwcyHFDr

    [41]

    Tschannen M, Djolonga J, Rubenstein P K, et al. On mutual information maximization for representation learning[C/OL]//Proc of the 8th Int Conf on Learning Representations. New York: OpenReview. net, 2020[2023-11-14].https://openreview.net/pdf?id=rk xoh24FPH

    [42]

    Hjelm R D, Fedorov A, Lavoie-Marchildon S, et al. Learning deep representations by mutual information estimation and maximization[C/OL]//Proc of the 7th Int Conf on Learning Representations. New York: OpenReview. net, 2019[2023-11-14].https://openreview.net/forum?id=Bklr3j0cKX

    [43]

    Veličković P, Fedus W, Hamilton William L, et al. Deep graph infomax[C/OL]//Proc of the 7th Int Conf on Learning Representations. New York: OpenReview. net, 2019[2023-11-14].https://openreview.net/pdf?id=rklz9iAcKQ

    [44]

    Peng Zhen, Huang Wenbing, Luo Minnan, et al. Graph representation learning via graphical mutual information maximization[C]//Proc of the 32nd Web Conf. Berlin: Springer, 2020: 259−270

    [45]

    Kipf T, Welling M. Semi-supervised classification with graph convolutional networks[C/OL]//Proc of the 5th Int Conf on Learning Representations. New York: OpenReview. net, 2017[2023-11-14].https://openreview.net/forum?id=SJU4ayYgl

    [46]

    In Y, Yoon K, Park C. Similarity preserving adversarial graph contrastive learning[C]//Proc of the 29th ACM SIGKDD Conf on Knowledge Discovery and Data Mining. New York: ACM, 2023: 867−878

    [47]

    Sun Yiwei, Wang Suhang, Tang Xianfeng, et al. Adversarial attacks on graph neural networks via node injections: A hierarchical reinforcement learning approach[C]//Proc of the 32nd Web Conf. Berlin: Springer, 2020: 673−683

    [48]

    Xu Kaidi, Chen Hongge, Liu Sijia, et al. Topology attack and defense for graph neural networks: An optimization perspective[C]//Proc of the 28th Int Joint Conf on Artificial Intelligence. San Francisco, CA: Morgan Kaufmann, 2019: 3961−3967

    [49]

    Madry A, Makelov A, Schmidt L, et al. Towards deep learning models resistant to adversarial attacks[C/OL]//Proc of the 6th Int Conf on Learning Representations. New York: OpenReview. net, 2018[2023-11-14].https://openreview.net/forum?id=rJzIBfZAb

    [50]

    Belghazi Mohamed I, Baratin A, Rajeshwar S, et al. Mutual information neural estimation[C]//Proc of the 35th Int Conf on Machine Learning. New York: PMLR, 2018: 531−540

    [51]

    Poole B, Ozair S, Van Den Oord A, et al. On variational bounds of mutual information[C]//Proc of the 36th Int Conf on Machine Learning. New York: PMLR, 2019: 5171−5180

    [52]

    Nowozin S, Cseke B, Tomioka R. F-GAN: Training generative neural samplers using variational divergence minimization[C]//Proc of the 30th Advances in Neural Information Processing Systems. Cambridge, MA: MIT, 2016: 271−279

    [53]

    Wu Felix, Souza A, Zhang Tianyi, et al. Simplifying graph convolutional networks[C]//Proc of the 36th Int Conf on Machine Learning. New York: PMLR: 2019: 6861−6871

    [54]

    Kingma P, Welling M. Auto-encoding variational Bayes[C/OL]//Proc of the 2nd Int Conf on Learning Representations. New York: OpenReview. net, 2013[2023-11-14]. https://openreview.net/forum?id = 33X9fd2-9FyZd

    [55]

    Kingma P, Jimmy B. Adam: A method for stochastic optimization[J]. arXiv preprint, arXiv: 1412.6980, 2014

  • 期刊类型引用(2)

    1. 郭宇星,姚凯旋,王智强,温亮亮,梁吉业. 基于特征拓扑融合的黑盒图对抗攻击. 计算机科学. 2024(01): 355-362 . 百度学术
    2. 武阳,刘靖. 面向图像分析领域的黑盒对抗攻击技术综述. 计算机学报. 2024(05): 1138-1178 . 百度学术

    其他类型引用(2)

图(4)  /  表(3)
计量
  • 文章访问数:  289
  • HTML全文浏览量:  74
  • PDF下载量:  95
  • 被引次数: 4
出版历程
  • 收稿日期:  2023-06-14
  • 修回日期:  2023-12-03
  • 网络出版日期:  2024-02-21
  • 刊出日期:  2024-06-30

目录

/

返回文章
返回