Loading [MathJax]/jax/output/SVG/jax.js
  • 中国精品科技期刊
  • CCF推荐A类中文期刊
  • 计算领域高质量科技期刊T1类
高级检索

联合数据增强的语义对比聚类

王气洪, 贾洪杰, 黄龙霞, 毛启容

王气洪, 贾洪杰, 黄龙霞, 毛启容. 联合数据增强的语义对比聚类[J]. 计算机研究与发展, 2024, 61(6): 1511-1524. DOI: 10.7544/issn1000-1239.202220995
引用本文: 王气洪, 贾洪杰, 黄龙霞, 毛启容. 联合数据增强的语义对比聚类[J]. 计算机研究与发展, 2024, 61(6): 1511-1524. DOI: 10.7544/issn1000-1239.202220995
Wang Qihong, Jia Hongjie, Huang Longxia, Mao Qirong. Semantic Contrastive Clustering with Federated Data Augmentation[J]. Journal of Computer Research and Development, 2024, 61(6): 1511-1524. DOI: 10.7544/issn1000-1239.202220995
Citation: Wang Qihong, Jia Hongjie, Huang Longxia, Mao Qirong. Semantic Contrastive Clustering with Federated Data Augmentation[J]. Journal of Computer Research and Development, 2024, 61(6): 1511-1524. DOI: 10.7544/issn1000-1239.202220995
王气洪, 贾洪杰, 黄龙霞, 毛启容. 联合数据增强的语义对比聚类[J]. 计算机研究与发展, 2024, 61(6): 1511-1524. CSTR: 32373.14.issn1000-1239.202220995
引用本文: 王气洪, 贾洪杰, 黄龙霞, 毛启容. 联合数据增强的语义对比聚类[J]. 计算机研究与发展, 2024, 61(6): 1511-1524. CSTR: 32373.14.issn1000-1239.202220995
Wang Qihong, Jia Hongjie, Huang Longxia, Mao Qirong. Semantic Contrastive Clustering with Federated Data Augmentation[J]. Journal of Computer Research and Development, 2024, 61(6): 1511-1524. CSTR: 32373.14.issn1000-1239.202220995
Citation: Wang Qihong, Jia Hongjie, Huang Longxia, Mao Qirong. Semantic Contrastive Clustering with Federated Data Augmentation[J]. Journal of Computer Research and Development, 2024, 61(6): 1511-1524. CSTR: 32373.14.issn1000-1239.202220995

联合数据增强的语义对比聚类

基金项目: 国家自然科学基金项目(61906077, 62102168, 62176106, U1836220);江苏省自然科学基金项目(BK20190838, BK20200888);中国博士后科学基金项目(2020T130257, 2020M671376);江苏省博士后科学基金项目(2021K596C)
详细信息
    作者简介:

    王气洪: 1999年生. 硕士研究生. 主要研究方向为深度聚类

    贾洪杰: 1988年生. 博士,副教授. 主要研究方向为数据聚类、深度学习、模式识别

    黄龙霞: 1991年生. 博士,副教授. 主要研究方向为隐私保护、数据共享、云计算

    毛启容: 1975年生. 博士,教授,博士生导师. IEEE和ACM会员. 主要研究方向为情感计算、模式识别、多媒体分析

    通讯作者:

    贾洪杰(jiahj@ujs.edu.cn

  • 中图分类号: TP181

Semantic Contrastive Clustering with Federated Data Augmentation

Funds: This work was supported by the National Natural Science Foundation of China (61906077, 62102168, 62176106, U1836220), the Natural Science Foundation of Jiangsu Province (BK20190838, BK20200888), the China Postdoctoral Science Foundation (2020T130257, 2020M671376), and the Postdoctoral Science Foundation of Jiangsu Province (2021K596C).
More Information
    Author Bio:

    Wang Qihong: born in 1999. Master candidate. His main research interest includes deep clustering

    Jia Hongjie: born in 1988. PhD, associate professor. His main research interests include data clustering, deep learning, and pattern recognition

    Huang Longxia: born in 1991. PhD, associate professor. Her main research interests include privacy protection, data sharing, and cloud computing. (hlxia@ujs.edu.cn)

    Mao Qirong: born in 1975. PhD, professor, PhD supervisor. Member of IEEE and ACM. Her main research interests include affective computing, pattern recognition, and multimedia analysis. (mao_qr@ujs.edu.cn)

  • 摘要:

    鉴于对比学习在下游任务中的优异表现,对比聚类的研究受到广泛关注. 但是,大部分方法只采用一类简单的数据增强技术,尽管增强后的视图保留了原始样本的大部分特征信息,但也继承了语义信息和非语义信息相融交织的特性,在相似或相同的视图模式下,该特性限制了模型对语义信息的学习. 有些方法直接将来源于同一样本的具有相同视图模式的2个数据增强视图组成正样本对,导致样本对语义性不足. 为解决上述问题,提出基于联合数据增强的语义对比聚类方法,基于一强一弱2类数据增强,利用视图间的差异降低非语义信息的干扰,增强模型对语义信息的感知能力. 此外,基于全局k近邻图引入全局类别信息,由同一类的不同样本形成正样本对. 在6个通用的挑战性数据集上的实验结果表明该方法取得了最优的聚类性能,证实了所提方法的有效性和优越性.

    Abstract:

    Given the excellent performance of contrastive learning on downstream tasks, contrastive clustering has received much more attention recently. However, most approaches only utilize a simple kind of data augmentation. Although augmented views keep the majority of information from original samples, they also inherit a mixture of characteristic of features, including semantic and non-semantic features, which limits model’s learning ability of semantic information under similar or identical view patterns. Even some approaches regard two different augmentation views being from the same sample and keeping similar view patterns as positive pairs, which results in sample pairs lacking of semantics. In this paper, we propose a semantic contrastive clustering method with federated data augmentation to solve these problems. Two different types of data augmentations, namely strong data augmentation and weak data augmentation, are introduced to produce two very different view patterns. These two view patterns are utilized to mitigate the disturbance of non-semantic information and improve the semantic awareness of the proposed approach. Moreover, a global k-nearest neighbor graph is used to bring global category information, which instructs the model to treat different samples from the same cluster as positive pairs. Extensive experiments on six commonly used and challenging image datasets show that the proposed method achieves the state-of-the-art performance and confirms the superiority and validity of it.

  • 国密SM4算法[1]是一种常用的分组密码算法,广泛应用于数据保护、加密通信等领域. SM4算法常见工作模式有ECB(electronic codebook),CBC(cipher block chaining)等,对于相同的明文块,ECB模式下会产生完全相同的密文,而在CBC模式下,当前的明文块会与前一块的密文异或后进行运算. 因此,即使是完全相同的明文输入也可能会有完全不同的密文输出. 相比于ECB模式,CBC模式提供了更高的安全性和抵抗攻击的能力,有着更高的应用需求. 提高SM4算法在CBC模式下的性能,对于在边缘设备中使用SM4算法是至关重要的. 但是,在CBC模式下存在着难以提高吞吐率的问题:每组的输入必须等待前一组运算结束后才能获得,因而难以使用流水线方法提升吞吐率.

    文献[2]中提到了一种改进方法,将电路中的S盒以外的其他逻辑结构进行预计算,并把预计算的结果与S盒进行融合构成新的查找表,从而提高SM4算法在CBC模式下吞吐率. 本文基于此工作进一步优化了S盒的表示,并针对轮函数的迭代过程进行了优化,最终减少了轮函数关键路径上的2次异或运算,有效提高了算法的性能.

    本文的设计针对CBC模式下的SM4算法,在TSMC 40 nm,SMIC 55 nm工艺下,使用Synopsys Design Compiler分别进行了ASIC综合. 综合结果显示,本文所提出的设计在CBC模式下的吞吐率达到了4.2 Gb/s,同时单位面积吞吐量达到了129.4 Gb·s−1·mm−2,明显优于已发表的类似设计. 这些结果表明本文所提出的化简方法在改进SM4算法性能方面具有很大的潜力.

    本文的结构为:首先介绍了SM4算法及其在CBC模式下存在的性能瓶颈问题. 然后,详细描述了本文提出的2个化简方法,并解释了它们在轮函数迭代和S盒置换过程中的作用. 接下来,介绍了实验设计并给出了实验结果分析和对比. 最后,对进一步改进和应用的方向进行了展望.

    SM4算法是一种对称密钥密码算法,被广泛应用于数据加密和保护领域,它是中国密码算法的标准之一,具有较高的安全性和良好的性能.

    SM4采用了分组密码的设计思想,将明文数据划分为128 b的数据块,并通过密钥对每个数据块进行加密和解密操作. 对单组数据进行加解密的流程如图1所示,分为密钥扩展算法和加解密算法2部分. 图1中的FK是系统预设的参数,与用户密钥进行异或运算后作为密钥扩展算法的输入. 加解密算法接受密钥扩展算法产生的32轮轮密钥rki对明文进行加解密,最后经反序变换输出. 加解密使用的是同一套计算流程,唯一的区别是解密时使用轮密钥的顺序与加密过程相反.

    图  1  SM4算法工作流程
    Figure  1.  Workflow of SM4 algorithm

    密钥扩展算法和加解密算法2部分均由32次轮函数迭代构成,整体结构均采用4路并行的Feistel结构,在计算过程中,以128 b数据为输入、128 b数据为输出,其内部的运算逻辑如图2所示. 输出中的前96 b数据等于输入中的后96 b数据,输出后的32 b数据通过轮函数运算产生.

    图  2  4路并行的Feistel结构
    Figure  2.  Four parallel Feistel structure

    在密钥扩展算法中使用的密钥是算法给定的固定密钥,记作cki. 在加解密算法中使用的密钥是由密钥扩展算法通过用户给的密钥扩展出来的轮密钥,记作rki.

    SM4密钥扩展算法结构如图3所示,密钥扩展的主要过程包括32轮密钥扩展的轮函数,其中,密钥为128 b,FK为SM4标准中规定的一个128 b常数. 二者异或后的值将会作为密钥扩展轮函数的首轮输入,并通过一个选择器进行循环迭代,总计迭代32轮产生32个轮密钥.

    图  3  SM4的密钥扩展算法结构
    Figure  3.  Key expansion algorithm structure of SM4

    设用户输入的密钥为MK,则该密钥对应的32轮轮密钥可以按照式(1)求出:

    {(k0,k1,k2,k3)=MKFK,ki+4=kiF(ki+1ki+2ki+3cki),rki=ki+4, (1)

    其中,cki是系统预设的32 b参数,rki代表第i轮的轮密钥,F代表密钥扩展轮函数,其由S盒置换算法τ:Z322Z322和线性变换算法L(x)=x(x<<<13)(x<<<23)组成,其中<<<表示循环左移运算.

    SM4算法的加解密算法的整体结构与密钥扩展算法类似,均包含32轮的轮函数迭代,区别在于加解密算法中额外包含1次反序变换.

    SM4算法的轮函数迭代流程如图4所示,X1~X4为第1轮的输入,X2~X5为第1轮的输出,同时也是第2轮的输入. rk1为第1轮的轮密钥,T函数代表加解密模块的轮函数. 与密钥扩展部分的轮函数F类似,由S盒置换算法τ和一个线性变换算法L(x)=x(x<<<2)(x<<<10) (x<<<18)(x<<<24)组成.

    图  4  SM4加解密模块轮函数结构
    Figure  4.  Round function structure of SM4 encryption and decryption modules

    通过多轮的迭代过程,SM4算法能够实现高强度的数据加密和解密. 然而,在CBC模式下,由于相邻数据之间的依赖关系,传统的流水线技术难以提高算法的吞吐率. 因此,针对这一问题,本文提出了2种化简方法,以减少关键路径上的运算,从而提高SM4算法在CBC模式下的性能.

    加解密模块的轮函数的结构如图4所示,若不考虑T函数带来的时序延迟,单次轮函数迭代的关键路径上共包含3次异或运算. 以公式的形式描述SM4算法加解密轮函数的迭代关系可得到式(2):

    Xi+4=Xi(Xi+1Xi+2Xi+3rki). (2)

    若考虑相邻的2次轮函数迭代,则有:

    {Xi+4=XiT(Xi+1Xi+2Xi+3rki),Xi+5=XiT(Xi+2Xi+3Xi+4rki+1). (3)

    观察式(1)~(3)不难发现,由于SM4采用了4条数据线路的Feistel结构进行设计,在相邻的2次轮函数迭代过程中,均有96 b的输入是完全一致的,在式(3)的计算过程中,相邻2轮的轮函数将Xi+2Xi+3计算了2次.

    因此,一个简单的优化思路便是,我们在轮函数之间传递数据时,额外传递Xi+2Xi+3rki+1的运算结果,并作用于下一次计算,得到的流程图如图5所示.

    图  5  优化的轮函数结构
    Figure  5.  Optimized round function structure

    相比于图4的运算流程,在计算当前轮次的输出时,二次优化过后的轮函数通过提前获取下一轮次使用的密钥,并利用2轮之间相同的数据提前计算,可以使得在加解密的流程中总计节省32次异或运算的时间.

    S盒是密码学领域的一个基本组件,其功能是实现数据的非线性变换,在DES,AES,SM1,SM4等算法中均有应用. 在SM4算法中,其提供了一个8 b到8 b的非线性变换.

    在SM4算法中,S盒模块通常与另一个线性变换函数L组合使用,即图4图5中的T函数,其位于加解密算法轮函数的关键路径上,因此,如果能找到优化T函数关键路径的方法延时,也可以使得整个加解密模块的延时变小,进而提高运算效率.T函数的内部结构如图6所示,图中的<<<表示对32 b数据进行循环左移,关键路径包括1个S盒和3次异或运算. 在硬件实现中,循环移位可以通过硬件连线来实现,不会带来额外的路径延时.

    图  6  SM4加解密模块T函数结构
    Figure  6.  T function structure of SM4 encryption and decryption modules

    T函数中包含4次异或运算,反映到电路设计中,其关键路径上至少存在3次异或运算. 因此,一个优化思路便是,将算法中的S盒的输入输出修改为8 b输入、32 b输出[2-3] ,并提前将L函数作用于图中的4个S盒,如图7所示. 图7中,通过编码的形式保存其运行结果,将图6中的SBox与后续的线性变换L组合形成exSBox,之后仅需要将4个exSBox的输出异或即可,从而减少了1次异或运算.

    图  7  优化的T函数结构
    Figure  7.  Optimized T-function structure

    虽然修改后的S盒比原先的S盒输出了更多的数据,但在硬件实现中,仍然是通过相同数量的多路选择器查表输出. 因此修改前后的S盒的路径延时及其安全性并未改变.

    图7中的exSBox1为例,使用0xff作为输入展示exSBox1的构造方式,首先获得0xff作用于S盒后的运行结果0x48. 由于exSBox1的输入对应最高四位,因此,将其拓展为32 b数据为0x48000000. 在经过L函数后,得到的值是0x68492121. 如表1所示,表中前5行加粗部分表示传入的数据及其循环移位后所处位置,其余位置在任意输入下都恒等于0.

    表  1  搜索空间降低比率和命中率
    Table  1.  Search Space Reduction Rate and Hit Rate
    原数据 01001000 00000000 00000000 00000000
    <<<2 00100000 00000000 00000000 00000001
    <<<10 00000000 00000000 00000001 00100000
    <<<18 00000000 00000001 00100000 00000000
    <<<24 00000000 01001000 00000000 00000000
    异或和 01101000 01001001 00100001 00100001
    注:加粗部分表示传入的数据及其循环移位后所处位置.
    下载: 导出CSV 
    | 显示表格

    观察表1的运算结果不难发现,除最后一行加粗数字表示的第0~5位,第14,15位由异或运算产生,其余的24位均是输入的8位数据的排列组合,因此在硬件设计时,可以仅使用8 b输入、16 b输出的S盒实现. 对于图7中剩余的3个exSBox,在相同的输入下,可以通过对表1中的数据进行循环移位,得到对应的输出. 上述结论对4个位于不同部位的S盒均成立.

    具体而言,令p为输入的8 b数据,τ(p)为标准SM4算法中S盒的输出. X=(x0,x1,,x15)为exSBox1中存储的16 b数据,Y=(y0,y1,,y31)为优化后的T函数中需要的32 b输出. τ为SM4算法标准中使用的S盒置换函数,其对于8 b输入,产生对应的8 b输出,则X可以由式(4)产生:

    {(x0,x1,,x7)=τ(p),(x8,x9,,x15)=τ(p)(τ(p)<<<2). (4)

    表1可知,Y的取值实际上可以由X经过排列组合得到,对于exSBox2,exSBox3,exSBox4的取值,可以通过Y循环移位得到,且由于该过程中仅包含赋值运算,在电路设计中可以通过物理连线完成. 相比于文献[2]中的设计,节约了1/3的面积消耗. 具体的计算方式如式(5)所示.

    {(y0,y1,,y5)=(x8,x9,,x13)(y6,y7=(x6,x7)(y8,y9,,y13)=(x0,x1,,x5)(y14,y15=(x14,x15)(y16,y17,,y21)=(x2,x3,,x7)(y22,y23=(x0,x1)(y24,y25,,y29)=(x2,x3,,x7)(y30,y31=(x0,x1). (5)

    现场可编程逻辑门阵列(FPGA)和专用集成电路(ASIC)是目前主流使用硬件电路实现密码算法的2个方式. FPGA虽然具有可编程性、灵活性和快速设计等优势,但ASIC相较于FPGA拥有更高的性能,与本文设计追求的高效率目标相符,所以选择在ASIC下实现.

    SM4硬件系统的整体结构设计如图8所示,包括密钥扩展模块、加解密模块和适配CBC工作模式的组合逻辑. 对于单个加解密任务,若明文被分为n组,会执行1次密钥扩展和n次加解密. 因此,优化加解密算法的执行效率是优化SM4硬件设计的重点. 本文所提出的2种化简方法,对于每一组明文输入,可以减少64级异或门的延时,极大地提升了运算效率.

    图  8  SM4硬件整体架构
    Figure  8.  Overall architecture of SM4 hardware

    SM4算法的硬件实现主要有2种方案:一种方案是流水线结构,即通过寄存器连接多个加解密模块同时工作以提高加解密的效率,如图9(a)所示;另一种方案是使用循环迭代的方式. 即一次性提取32个轮函数中的n轮组合成一个组合电路,称为n合1电路,如图9(b)所示. 流水线结构的优势是可以充分利用n个加密核心的性能,在不影响整体工作频率的情况下加速运算. 对于SM4算法而言,在合理范围内堆叠流水线可以实现极高的吞吐量.

    图  9  流水线结构与循环迭代结构
    Figure  9.  Pipeline architecture and loop iteration architecture

    然而,流水线结构仅适用于ECB等数据无前后依赖的工作模式. 在CBC工作模式下,由于需要将前一轮的输出与本轮的输入进行异或运算,相邻的数据存在依赖,故而无法使用流水线加速运算. 因此,在本设计中没有选用流水线结构.

    虽然循环迭代结构会降低整体模块的工作频率,对吞吐量的提升较为有限,但可以同时兼容 ECB,CBC这 2种工作模式. 本设计最终选择了循环迭代的设计方式.

    在SM4算法中,密钥扩展与加解密算法类似,均包含32轮迭代. 密钥扩展模块采用图2所示的单轮组合逻辑电路循环32次来实现32轮迭代.

    在密钥扩展模块的输出端,使用寄存器存放每一轮电路的轮密钥,标号为0~31,如图10所示. 标号从0开始的好处是:在解密时,使用到的密钥顺序相反的,加密的第k轮使用的是第k1号密钥,解密的第k轮使用的是第32k号密钥. 在二进制下,二者的标号可以通过取反操作相互转化.

    图  10  轮密钥的存储与使用
    Figure  10.  Storage and usage of round keys

    为了保证运算结果的准确性,密钥扩展模块还 会向加解密模块发出控制信号表明自己的工作状态,以避免在轮密钥尚未完全更新时使用错误的轮密钥进行加解密.

    在国家标准文档[1]中,并没有针对CBC工作模式给出具体的测试用例. 因此,本文设计方案通过完整的Verilog HDL语言实现,通过在FPGA平台进行综合、仿真和上板验证,以确保功能正确并进行相关性能分析,如图11所示. 具体而言,通过PCIE上位机下发随机的明文数据到FPGA开发板,开发板完成加密后传回上位机,通过与软件对比实现功能验证. 若在循环验证多次后二者的输出均完全相同,则认为设计的SM4电路的功能正确.

    图  11  测试流程
    Figure  11.  Testing procedures

    最终,本文的设计在Zynq 7020 FPGA开发板上完成了上板验证,确保了功能的正确性,工作频率最高可达95 MHz,吞吐量约为1.5 Gb/s.

    ASIC上主要针对2种工艺SMIC 55 nm与 TSMC 40 nm进行了测试、通过Synopsys公司的EDA工具DesignCompiler进行时序等综合约束,我们选择了芯片面积和芯片使用的逻辑门数量(gates)作为评估指标,其结果如表2表3所示,在CBC模式下,本文的设计在3.97 mW的功耗下,单位面积吞吐率达129.4 Gb·s−1·mm−2,明显优于同类设计. 此外,以使用逻辑门的数量为评估标准,本文提出的设计在该指标上也明显优于同类设计,单位面积吞吐率为0.205×10−3 Gb·s−1·gates−1.

    表  2  SM4综合结果与面积效率对比
    Table  2.  Comparison of SM4 Synthesis Results and Area Efficiency
    工艺节点 芯片面积/mm2 吞吐率/(Gb·s−1 单位面积吞吐率/
    (Gb·s−1·mm−2
    功耗/mW
    40 nm* 0.0335 4.34 129.40 3.97
    55 nm* 0.0877 4.41 50.30 10.88
    65 nm[2] 0.1260 5.24 41.59
    180 nm[4] 0.0790 0.10 1.27 5.31
    55 nm[5] 0.0870 0.40 4.59 4.35
    350 nm[6] 0.0270 0.412 15.26
    注:*标注的表示本文的结果.
    下载: 导出CSV 
    | 显示表格
    表  3  SM4综合结果与门效率对比
    Table  3.  Comparison of SM4 Synthesis Results and Gates Efficiency
    工艺节点 gates 吞吐率/(Gb·s−1 单位面积吞吐率/
    (Gb·s−1·gates−1
    40 nm* 21.2×103 4.34 0.205×10−3
    55 nm* 21.1×103 4.41 0.209×10−3
    180 nm[6] 32.0×103 0.80 0.025×10−3
    65 nm[7] 31.0×103 1.23 0.040×10−3
    55 nm[8] 22.0×103 0.27 0.012×10−3
    130 nm[9] 22.0×103 0.80 0.036×10−3
    注:*标注的表示本文的结果.
    下载: 导出CSV 
    | 显示表格

    在不同工艺、电压下对该设计进行综合,可以得到本文设计在不同使用场景下的吞吐率. 在TSMC 40 nm、SMIC 55 nm、SMIC 130 nm下使用不同的工艺角分别对本文的设计进行综合,结果如表4所示.

    表  4  不同工艺角下的SM4综合结果与效率对比
    Table  4.  Comparison of SM4 Synthesis Results and Efficiency with Different Process Corners
    工艺节点 工艺角 面积/gates 吞吐率/(Gb·s−1 功耗/mW
    40 nm 0.99V/125°C/SS 21.0×103 2.40 2.55
    1.1V/25°C/TT 21.2×103 4.34 3.97
    1.21V/0°C/FF 20.9×103 6.96 8.35
    55 nm 1V/25°C/TT 20.0×103 2.78 4.10
    1.2V/25°C/TT 21.1×103 4.41 10.88
    1.32V/0°C/FF 17.8×103 6.84 33.59
    130 nm 1.08V/125°C/SS 20.8×103 1.11 6.86
    1.2V/25°C/TT 21.0×103 1.75 15.70
    1.32V/0°C/FF 21.8×103 2.45 23.03
    下载: 导出CSV 
    | 显示表格

    根据本文提出的2种对SM4加解密模块关键路径进行化简以及降低面积的方法,实现了4合1的SM4电路,并基于Zynq7020开发板进行了功能验证. 此外,ASIC综合结果表明本文的SM4电路相比于其他方案有更高的单位面积吞吐率和更低的功耗. 因此,这种对SM4算法进行的优化是有效的,并且对其他分组算法提高CBC模式下的单位面积吞吐率具有参考价值.

    作者贡献声明:郝泽钰提出研究方案并完成了论文的撰写;代天傲、黄亦成、段岑林协助完成了ASIC平台上的验证实验;董进、吴世勇、张博、王雪岩、贾小涛提出指导意见并修改论文;杨建磊提出指导意见并讨论定稿.

  • 图  1   联合数据增强技术示意图

    Figure  1.   Illustration of federated data augmentation technology

    图  2   强数据增强和弱数据增强的比较

    Figure  2.   The comparison of strong data augmentation and weak data augmentation

    图  3   SCCFA的网络框架

    Figure  3.   The network framework of SCCFA

    图  8   4个数据集的聚类准确率和正样本对准确率的变化过程

    Figure  8.   Variance process of clustering accuracy and positive pairs accuracy on four datasets

    图  4   3个数据集的混淆矩阵

    Figure  4.   Confusion matrices of three datasets

    图  5   在2个数据集上的正样本对案例分析

    Figure  5.   Case analysis of positive pairs on two datasets

    图  6   迭代过程中在CIFAR-10数据集上实例特征和聚类分析的演变

    Figure  6.   The evolution of instance features and clustering analysis on CIFAR-10 dataset during iteration process

    图  7   4个数据集的损失收敛过程

    Figure  7.   Loss convergence process of four datasets

    表  1   数据集统计

    Table  1   Statistics of Datasets

    数据集 图片数量 图片尺寸 类别个数
    CIFAR-10 6万 3×32×32 10
    CIFAR-100 6万 3×32×32 20
    STL-10 1.3万 3×96×96 10
    ImageNet-10 1.3万 3×96×96 10
    ImageNet-Dogs 1.95万 3×96×96 15
    Tiny-ImageNet 11万 3×64×64 200
    下载: 导出CSV

    表  2   不同方法在6个数据集上的ACC比较

    Table  2   ACC Comparison of Different Methods on Six Datasets

    方法 CIFAR-10 CIFAR-100 STL-10 ImageNet-10 ImageNet-Dogs Tiny-ImageNet
    k-means[6] 0.229 0.130 0.192 0.241 0.105 0.025
    SC[5] 0.247 0.136 0.159 0.274 0.111 0.022
    AC[28] 0.228 0.138 0.332 0.242 0.139 0.027
    NMF[29] 0.190 0.118 0.180 0.230 0.118 0.029
    AE[30] 0.314 0.165 0.303 0.317 0.185 0.041
    DAE[31] 0.297 0.151 0.302 0.304 0.190 0.039
    GAN[32] 0.315 0.151 0.298 0.346 0.174 0.041
    DeCNN[33] 0.282 0.133 0.299 0.313 0.175 0.035
    VAE[34] 0.291 0.152 0.282 0.334 0.179 0.036
    JULE[35] 0.272 0.137 0.277 0.300 0.138 0.033
    DEC[8] 0.301 0.185 0.359 0.381 0.195 0.037
    DAC[25] 0.522 0.238 0.470 0.527 0.275 0.066
    DCCM[13] 0.623 0.327 0.482 0.710 0.383 0.108
    IIC[14] 0.617 0.257 0.610
    PICA[15] 0.696 0.337 0.713 0.870 0.352 0.098
    CC[22] 0.766 0.426 0.747 0.895 0.342 0.140
    GCC[21] 0.856 0.472 0.788 0.901 0.526 0.138
    SCCFA(本文) 0.882 0.506 0.802 0.963 0.543 0.132
    注:最好的结果用粗体数字标注.
    下载: 导出CSV

    表  3   不同方法在6个数据集上的NMI比较

    Table  3   NMI Comparison of Different Methods on Six Datasets

    方法 CIFAR-10 CIFAR-100 STL-10 ImageNet-10 ImageNet-Dogs Tiny-ImageNet
    k-means[6] 0.087 0.084 0.125 0.119 0.055 0.065
    SC[5] 0.103 0.090 0.098 0.151 0.038 0.063
    AC[28] 0.105 0.098 0.239 0.138 0.037 0.069
    NMF[29] 0.081 0.079 0.096 0.132 0.044 0.072
    AE[30] 0.239 0.100 0.250 0.210 0.104 0.131
    DAE[31] 0.251 0.111 0.224 0.206 0.104 0.127
    GAN[32] 0.265 0.120 0.210 0.225 0.121 0.135
    DeCNN[33] 0.240 0.092 0.227 0.186 0.098 0.111
    VAE[34] 0.245 0.108 0.200 0.193 0.107 0.113
    JULE[35] 0.192 0.103 0.182 0.175 0.054 0.102
    DEC[8] 0.257 0.136 0.276 0.282 0.122 0.115
    DAC[25] 0.396 0.185 0.366 0.394 0.219 0.190
    DCCM[13] 0.496 0.285 0.376 0.608 0.321 0.224
    PICA[15] 0.591 0.310 0.611 0.802 0.352 0.277
    CC[22] 0.681 0.424 0.674 0.862 0.401 0.340
    GCC[21] 0.764 0.472 0.684 0.842 0.490 0.347
    SCCFA(本文) 0.808 0.511 0.733 0.910 0.525 0.343
    注:最好的结果用粗体数字标注.
    下载: 导出CSV

    表  4   不同方法在6个数据集上的ARI比较

    Table  4   ARI Comparison of Different Methods on Six Datasets

    方法 CIFAR-10 CIFAR-100 STL-10 ImageNet-10 ImageNet-Dogs Tiny-ImageNet
    k-means[6] 0.049 0.028 0.061 0.057 0.020 0.005
    SC[5] 0.085 0.022 0.048 0.076 0.013 0.004
    AC[28] 0.065 0.034 0.140 0.067 0.021 0.005
    NMF[29] 0.034 0.026 0.046 0.065 0.016 0.005
    AE[30] 0.169 0.048 0.161 0.152 0.073 0.007
    DAE[31] 0.163 0.046 0.152 0.138 0.078 0.007
    GAN[32] 0.176 0.045 0.139 0.157 0.078 0.007
    DeCNN[33] 0.174 0.038 0.162 0.142 0.073 0.006
    VAE[34] 0.167 0.040 0.146 0.168 0.079 0.006
    JULE[35] 0.138 0.033 0.164 0.138 0.028 0.006
    DEC[8] 0.161 0.050 0.186 0.203 0.079 0.007
    DAC[25] 0.306 0.088 0.257 0.302 0.111 0.017
    DCCM[13] 0.408 0.173 0.262 0.555 0.182 0.038
    PICA[15] 0.512 0.171 0.531 0.761 0.201 0.040
    CC[22] 0.606 0.282 0.606 0.825 0.225 0.071
    GCC[21] 0.728 0.305 0.631 0.822 0.362 0.075
    SCCFA(本文) 0.777 0.347 0.680 0.920 0.368 0.062
    注:最好的结果用粗体数字标注.
    下载: 导出CSV

    表  5   强数据增强和弱数据增强间的不同联合

    Table  5   Different Combinations Between Strong Data Augmentation and Weak Data Augmentation

    策略 符号表示 ACC NMI ARI
    弱 vs 弱 (w,w) 0.841 0.743 0.704
    弱 vs 强 (w,s) 0.855 0.766 0.733
    强 vs 强 (s,s)
    弱/强 vs 强/弱 (w,w)+(w,s)+(s,s) 0.882 0.808 0.777
    注:最好的结果用粗体数字标注;“vs”的2个对象表示数据增强的类型;“−”表示模型无法学习,聚类失败.
    下载: 导出CSV

    表  6   全局类别信息的影响

    Table  6   Effect of the Global Category Information

    FFC FCC ACC NMI ARI
    0.852 0.768 0.726
    0.863 0.785 0.744
    0.861 0.777 0.735
    0.882 0.808 0.777
    注:最好的结果用粗体数字标注;“√”表示引入类别信息,“−”表示没有引入类别信息.
    下载: 导出CSV
  • [1] 张雪松,贾彩燕. 一种基于频繁词集表示的新文本聚类方法[J]. 计算机研究与发展,2018,55(1):102−112

    Zhang Xuesong, Jia Caiyan. A new documents clustering method based on frequent item-sets[J]. Journal of Computer Research and Development, 2018, 55(1): 102−112(in Chinese)

    [2] 孙申申,郭阳,任会之,等. 基于流向特征熵和测地线距离的粘连血管型肺结节聚类分割[J]. 中国科学:信息科学,2013,43(9):1136−1146 doi: 10.1360/112011-1322

    Sun Shenshen, Guo Yang, Ren Huizhi, et al. Juxta-vascular nodule segmentation based on the flowing entropy and geodesic distance feature[J]. SCIENTIA SINICA Informationis, 2013, 43(9): 1136−1146(in Chinese) doi: 10.1360/112011-1322

    [3] 郭弘毅,刘功申,苏波,等. 融合社区结构和兴趣聚类的协同过滤推荐算法[J]. 计算机研究与发展,2016,53(8):1664−1672

    Guo Hongyi, Liu Gongshen, Su Bo, et al. Collaborative filtering recommendation algorithm combining community structure and interest clusters[J]. Journal of Computer Research and Development, 2016, 53(8): 1664−1672(in Chinese)

    [4]

    Li Hua, Jia Yuheng, Cong Runmin, et al. Superpixel segmentation based on spatially constrained subspace clustering[J]. IEEE Transactions on Industrial Informatics, 2021, 17(11): 7501−7512 doi: 10.1109/TII.2020.3044068

    [5]

    Zelnik-Manor L, Perona P. Self-tuning spectral clustering [C] //Proc of the 17th Int Conf on Neural Information Processing Systems. Cambridge, MA: MIT, 2004: 1601−1608

    [6]

    MacQueen J. Some methods for classification and analysis of multivariate observations [C] //Proc of the 5th Berkeley Symp on Mathematical Statistics and Probability. Oakland, CA: University of California, 1967: 281−297

    [7]

    LeCun Y, Bengio Y, Hinton G. Deep learning[J]. Nature, 2015, 521(7553): 436−444 doi: 10.1038/nature14539

    [8]

    Xie Junyuan, Girshick R, Farhadi A. Unsupervised deep embedding for clustering analysis [C] //Proc of the 33rd Int Conf on Machine Learning. New York: ACM, 2016: 740−749

    [9]

    Tu Wenxuan, Zhou Sihang, Liu Xinwang, et al. Deep fusion clustering network [C] //Proc of the 35th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2021: 9978−9987

    [10]

    Hadsell R, Chopra S, LeCun Y. Dimensionality reduction by learning an invariant mapping [C] //Proc of the 24th IEEE Computer Society Conf on Computer Vision and Pattern Recognition. Los Alamitos, CA: IEEE Computer Society, 2006: 1735−1742

    [11]

    He Kaiming, Fan Haoqi, Wu Yuxin, et al. Momentum contrast for unsupervised visual representation learning [C] //Proc of the 38th IEEE Computer Society Conf on Computer Vision and Pattern Recognition. Los Alamitos, CA: IEEE Computer Society, 2020: 9726−9735

    [12]

    Chen T, Kornblith S, Norouzi M, et al. A simple framework for contrastive learning of visual representations [C] //Proc of the 37th Int Conf on Machine Learning. New York: ACM, 2020: 1575−1585

    [13]

    Wu Jianlong, Long Keyu, Wang Fei, et al. Deep comprehensive correlation mining for image clustering [C] //Proc of the 17th IEEE Int Conf on Computer Vision. Piscataway, NJ: IEEE, 2019: 8149−8158

    [14]

    Ji Xu, Vedaldi A, Henriques J. Invariant information clustering for unsupervised image classification and segmentation [C] //Proc of the 17th IEEE Int Conf on Computer Vision. Piscataway, NJ: IEEE, 2019: 9864−9873

    [15]

    Huang Jiabo, Gong Shaogang, Zhu Xiatian. Deep semantic clustering by partition confidence maximisation [C] //Proc of the 38th IEEE Computer Society Conf on Computer Vision and Pattern Recognition. Los Alamitos, CA: IEEE Computer Society, 2020: 8846−8855

    [16]

    Chen Xinlei, Fan Haoqi, Girshick R, et al. Improved baselines with momentum contrastive learning [J]. arXiv preprint, arXiv: 2003.04297, 2020

    [17]

    Zhao Xuyang, Du Tianqi, Wang Yisen, et al. ArCL: Enhancing contrastive learning with augmentation-robust representations [C/OL] // Proc of the 11th Int Conf on Learning Representations. San Juan, CA: ICLR, 2023[2023-05-25].https://arxiv.org/abs/2303.01092

    [18]

    Cubuk E, Zoph B, Shlens J, et al. Randaugment: Practical automated data augmentation with a reduced search space [C] //Proc of the 38th IEEE Conf on Computer Vision and Pattern Recognition. Los Alamitos, CA: IEEE Computer Society, 2020: 3008−3017

    [19]

    Wang Xiao, Qi Guojun. Contrastive learning with stronger augmentations[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2022, 45(5): 5549−5560

    [20]

    Khosla P, Teterwak P, Wang Chen, et al. Supervised contrastive learning [C] //Proc of the 34th Int Conf on Neural Information Processing Systems. Cambridge, MA: MIT, 2020: 18661−18673

    [21]

    Zhong Huasong, Wu Jianlong, Chen Chong, et al. Graph contrastive clustering [C] //Proc of the 18th IEEE Int Conf on Computer Vision. Piscataway, NJ: IEEE, 2021: 9204−9213

    [22]

    Li Yunfan, Hu Peng, Liu Zitao, et al. Contrastive clustering [C] //Proc of the 35th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2021: 8547−8555

    [23]

    Tay Y, Dehghani M, Bahri D, et al. Efficient transformers: A survey[J]. ACM Computing Surveys, 2022, 55(6): 1−28

    [24]

    Coates A, Lee H, Ng A. An analysis of single-layer networks in unsupervised feature learning [C] //Proc of the 14th Int Conf on Artificial Intelligence and Statistics. Brookline, MA: Microtome Publishing, 2011: 215−223

    [25]

    Chang Jianlong, Wang Lingfeng, Meng Gaofeng, et al. Deep adaptive image clustering [C] //Proc of the 16th IEEE Int Conf on Computer Vision. Piscataway, NJ: IEEE, 2017: 5880−5888

    [26]

    Krizhevsky A, Sutskever I, Hinton G. ImageNet classification with deep convolutional neural networks [J] Communications of the ACM, 2017, 60(6): 84−90

    [27]

    Geng Chuanxing, Huang Shengjun, Chen Songcan. Recent advances in open set recognition: A survey[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021, 43(10): 3614−3631 doi: 10.1109/TPAMI.2020.2981604

    [28]

    Gowda K, Krishna G. Agglomerative clustering using the concept of mutual nearest neighbourhood[J]. Pattern Recognition, 1978, 10(2): 105−112 doi: 10.1016/0031-3203(78)90018-3

    [29]

    Cai Deng, He Xiaofei, Wang Xuanhui, et al. Locality preserving nonnegative matrix factorization [C] //Proc of the 21st Int Joint Conf on Artificial Intelligence. San Francisco, CA: Morgan Kaufmann, 2009: 1010−1015

    [30]

    Bengio Y, Lamblin P, Popovici D, et al. Greedy layer-wise training of deep networks [C] //Proc of the 19th Int Conf on Neural Information Processing Systems. Cambridge, MA: MIT, 2006: 153−160

    [31]

    Vincent P, Larochelle H, Lajoie I, et al. Stacked denoising autoencoders: Learning useful representations in a deep network with a local denoising criterion[J]. Journal of Machine Learning Research, 2010, 11(12): 3371−3408

    [32]

    Radford A, Metz L, Chintala S. Unsupervised representation learning with deep convolutional generative adversarial networks [C/OL] //Proc of the 4th Int Conf on Learning Representations. San Juan, CA: ICLR, 2016[2023-05-25].https://arxiv.org/abs/1511.06434

    [33]

    Zeiler M, Krishnan D, Taylor G, et al. Deconvolutional networks [C] //Proc of the 28th IEEE Computer Society Conf on Computer Vision and Pattern Recognition. Los Alamitos, CA: IEEE Computer Society, 2010: 2528−2535

    [34]

    Kingma D, Welling M. Auto-encoding variational Bayes [C/OL] //Proc of the 2nd Int Conf on Learning Representations. San Juan, CA: ICLR, 2014[2023-05-25].https://arxiv.org/abs/1312.6114

    [35]

    Yang Jianwei, Parikh D, Batra D. Joint unsupervised learning of deep representations and image clusters [C] //Proc of the 29th IEEE Conf on Computer Vision and Pattern Recognition. Los Alamitos, CA: IEEE Computer Society, 2016: 5147−5156

    [36]

    Chen Tsaishien, Hung Weichih, Tseng Hungyu, et al. Incremental false negative detection for contrastive learning [C/OL] //Proc of the 10th Int Conf on Learning Representations. San Juan, CA: ICLR, 2022[2023-05-25].https://arxiv.org/abs/2106.03719

    [37]

    Van Der Maaten L, Hinton G. Visualizing data using t-SNE[J]. Journal of Machine Learning Research, 2008, 9(86): 2579−2605

  • 期刊类型引用(1)

    1. 石明丰,甘永根,赵玉珂,刘飞飞,何晓蓉. 智能量测开关与智能物联锁具信息交互设计. 中国新技术新产品. 2024(21): 137-139 . 百度学术

    其他类型引用(1)

图(8)  /  表(6)
计量
  • 文章访问数:  223
  • HTML全文浏览量:  39
  • PDF下载量:  90
  • 被引次数: 2
出版历程
  • 收稿日期:  2022-12-06
  • 修回日期:  2023-08-14
  • 网络出版日期:  2024-03-13
  • 刊出日期:  2024-05-31

目录

/

返回文章
返回