Processing math: 0%
  • 中国精品科技期刊
  • CCF推荐A类中文期刊
  • 计算领域高质量科技期刊T1类
高级检索

基于转换学习的半监督分类

康昭, 刘亮, 韩蒙

康昭, 刘亮, 韩蒙. 基于转换学习的半监督分类[J]. 计算机研究与发展, 2023, 60(1): 103-111. DOI: 10.7544/issn1000-1239.202110811
引用本文: 康昭, 刘亮, 韩蒙. 基于转换学习的半监督分类[J]. 计算机研究与发展, 2023, 60(1): 103-111. DOI: 10.7544/issn1000-1239.202110811
Kang Zhao, Liu Liang, Han Meng. Semi-Supervised Classification Based on Transformed Learning[J]. Journal of Computer Research and Development, 2023, 60(1): 103-111. DOI: 10.7544/issn1000-1239.202110811
Citation: Kang Zhao, Liu Liang, Han Meng. Semi-Supervised Classification Based on Transformed Learning[J]. Journal of Computer Research and Development, 2023, 60(1): 103-111. DOI: 10.7544/issn1000-1239.202110811
康昭, 刘亮, 韩蒙. 基于转换学习的半监督分类[J]. 计算机研究与发展, 2023, 60(1): 103-111. CSTR: 32373.14.issn1000-1239.202110811
引用本文: 康昭, 刘亮, 韩蒙. 基于转换学习的半监督分类[J]. 计算机研究与发展, 2023, 60(1): 103-111. CSTR: 32373.14.issn1000-1239.202110811
Kang Zhao, Liu Liang, Han Meng. Semi-Supervised Classification Based on Transformed Learning[J]. Journal of Computer Research and Development, 2023, 60(1): 103-111. CSTR: 32373.14.issn1000-1239.202110811
Citation: Kang Zhao, Liu Liang, Han Meng. Semi-Supervised Classification Based on Transformed Learning[J]. Journal of Computer Research and Development, 2023, 60(1): 103-111. CSTR: 32373.14.issn1000-1239.202110811

基于转换学习的半监督分类

基金项目: 国家自然科学基金项目(61806045)
详细信息
    作者简介:

    康昭: 1983年生.博士,副教授,硕士生导师.CCF会员.主要研究方向为无监督机器学习、深度表示学习、图信号处理、社交媒体分析和知识图谱

    刘亮: 1997年生.硕士.主要研究方向为深度学习和图信号处理

    韩蒙: 1963年生. 博士,高级工程师,硕士生导师.主要研究方向为数据挖掘和机器学习

    通讯作者:

    韩蒙(hmuestc@126.com

  • 中图分类号: TP391

Semi-Supervised Classification Based on Transformed Learning

Funds: This work was supported by the National Natural Science Foundation of China (61806045).
  • 摘要:

    近年来,基于图的半监督分类是机器学习与模式识别领域的研究热点之一. 该类方法一般通过构造图来挖掘数据中隐含的信息,并利用图的结构信息来对无标签样本进行分类,因此半监督分类的效果严重依赖于图的质量,尤其是图的构建方法和数据的质量. 为解决上述问题,提出了一种基于转换学习的半监督分类(semi-supervised classification based on transformed learning, TLSSC)算法.不同于已有的大多数半监督分类算法,此算法试图学习到一个转换空间,并在该空间上构建图,进行标签传播. 具体来说,此算法建立了一个统一的联合优化框架,其由3个部分组成:1)使用转换学习将原始数据映射到转换空间中;2)借鉴数据自表示思想,在转换空间上学习一个图;3)在图上进行标签传播. 这3个步骤交替进行、互相促进,避免低质量图导致的次优解. 对人脸和物品数据集进行实验,结果表明所提出的TLSSC算法在大部分情况下优于现有的其他算法.

    Abstract:

    In recent years graph-based semi-supervised classification is one of the research hot topics in machine learning and pattern recognition. In general, this algorithm discovers the hidden information by constructing a graph and classifies the labels for unlabeled samples based on the structural information of the graph. Therefore, the performance of semi-supervised classification heavily depends on the quality of the graph, especially the graph construction algorithm and the quality of data. In order to solve the above problems, we propose to perform a semi-supervised classification based on transformed learning (TLSSC) in this paper. Unlike most existing semi-supervised classification algorithms that learn the graph using raw features, our algorithm seeks a representation (transformed coefficients) and performs graph learning and label propagation based on the learned representation. In particular, a unified framework that integrates representation learning, graph construction, and label propagation is proposed, so that it is alternately updated and mutually improved and can avoid the sub-optimal solution caused by the low-quality graph. Specially, the raw features are mapped into transformed representation by transformed learning, then learn a high-quality graph by self-expression and achieve classification performance by label propagation. Extensive experiments on face and subject data sets show that our proposed algorithm outperforms other state-of-the-art algorithms in most cases.

  • 传统的监督分类只能使用已标记的数据进行训练,而标记样本通常需要耗费大量时间或精力.同时,未标记数据相对容易收集,因此发展能处理它们的算法尤为重要.半监督学习试图处理有大量未标数据的问题,旨在通过学习大量未标记数据和小部分有标签数据来构建更好的分类器.相对而言,半监督学习只需要较少的人力就能达到更高的准确性,在近年来受到了广泛的关注.

    在众多半监督分类方法[1-6]中,基于图方法[7-11]的研究是近年来机器学习与模式识别领域的研究热点之一.这类方法通过定义一个图,然后基于图上的局部平滑程度来推断缺失的标签,即若2个样本越相似,它们具有相同标签的可能性就越大.刘钰峰等人[12]在相似样本的类别也相似的一致性假设下,提出图正则化框架对异构图信息网络进行半监督分类.

    总的来说,这些方法通常由2步组成.首先,从所有的数据点中构造图,其节点是数据集中有标签和无标签数据样本,而边反映数据间的相似性;其次,假定图上的标签平滑性,利用标签传播方法[13]来推断所有的标签.因此,有大量的算法关注于构建图或标签传播,Jebara等人[14]提出了一种基于b-matching的图构造方法;Cheng等人[15]通过将每个数据点分解为稀疏线性组合来衡量数据点之间的相似性,从而构造图的相似度矩阵;Li等人[16]提出了一种基于低秩子空间的图构造方法;Wang等人[17]提出了一种基于线性邻域的标签传播方法.

    尽管现有的算法已经在各种实际应用中取得了不错的效果,但它们依然在某些方面受到限制:

    1) 大多数图都是直接基于原始数据上构建的.但由于原始数据的污染,建立的图可能无法准确反映样本之间的潜在关系.而图的质量对于后续任务的执行至关重要[18-19].

    2) 现有方法通常将图的构造与标签传播视为2个单独的步骤,这样可能会产生低质量图导致的次优解.即在第1步中构建的图对于后续任务处理可能并不是最优的.

    面对上述2个限制,本文提出了一种基于转换学习的半监督分类(semi-supervised classification based on transformed learning,TLSSC)算法.该算法是一个统一的联合优化框架,会根据分类结果更新其他变量.该框架由3个部分组成:1)使用转换学习将原始数据映射到转换空间中;2)借鉴数据自表示思想,在转换空间上学习一个图;3)在图上进行标签传播.

    数据自表示的主要策略是将每个数据点表示为其他数据点的线性组合,线性权重将构成相似度矩阵.该思想在子空间聚类问题上取得了巨大成功.研究发现,即使数据不能在原始域中被分割聚类,变换后的数据点也能够被聚类成独立的子空间[20].因此,本文利用转换学习将数据映射到转换空间中,并在转换空间中应用数据自表示进行图的构造.

    总的来说,本文的主要贡献有3个方面:

    1)提出了一种用于半监督分类的转换学习方式.这种方式将数据映射到一个转换空间,再对转换空间中的数据进行处理,这为表征学习提供了一个新的策略.

    2)提出了一种基于转换学习的半监督分类算法框架.该框架将数据映射、图构造和标签传播集成到一个统一的框架中,进行联合优化.

    3)在数据集上进行了大量广泛的实验.与现有具有代表性的半监督分类算法相比,本文提出的算法在某些方面展现了其优越性.

    为避免混淆,此处将给出本文主要使用的符号.将半监督分类问题的训练数据矩阵表示为{\boldsymbol{X}} = ({{\boldsymbol{x}}_1},\cdots, {{\boldsymbol{x}}_l},\cdots,{{\boldsymbol{x}}_{l + u}}){}^{\rm T},其中l + u = Nlu分别是有标签和无标签数据的数目,{{\boldsymbol{x}}_i} \in {\mathbb{R}^n}为数据样本(数据点), n 为特征数. c 为数据的类别总数,{\boldsymbol{Y}}为标签矩阵,当第 i 个样本属于第 j 个类别时 {y_{ij}} = 1 ,否则 {y_{ij}} = 0 .向量{{\boldsymbol{x}}_i} = ({x_{i1}}, {x_{i2}},\cdots,{x_{in}}) \in {\mathbb{R}^n}{\ell _2}-范数定义为{\left\| {{{\boldsymbol{x}}_i}} \right\|_2} = \sqrt {\displaystyle\displaystyle\sum\limits_{j = 1}^n {{{\left( {{x_{ij}}} \right)}^2}} }.

    传统的字典学习是一个合成过程,它通过从数据中学习一个字典矩阵,利用字典矩阵{\boldsymbol{A}} 对数据进行合成.在数学上,可以这样表示:

    {\boldsymbol{Y}} = {\boldsymbol{AX}}. (1)

    而转换学习是字典学习的分析形式,它通过学习一个转换矩阵,将原始数据投影到转换空间内.在数学上,可以这样表示:

    {\boldsymbol{TX}}={\boldsymbol{Z}}, (2)

    其中{\boldsymbol{T}}是转换矩阵,{\boldsymbol{X}}是数据矩阵,{\boldsymbol{Z}}是相关系数矩阵.Ravishankar等人[21]提出了一种转换学习的公式:

    \mathop {\mathrm{min}}\limits_{\boldsymbol T,\boldsymbol Z}\Vert {\boldsymbol{TX}}-{\boldsymbol{Z}}{\Vert }_{\rm F}^{2}+\lambda \left(\Vert {\boldsymbol{T}}{\Vert }_{\rm F}^{2}-\mathrm{log}\;\mathrm{det}{\boldsymbol{T}}\right) +\mu \Vert {\boldsymbol{Z}}{\Vert }_{1}, (3)

    其中参数 \lambda \mu 为正数.- \log \;\det {\boldsymbol{T}}能够保证学习到的转换矩阵是满秩的,防止产生退化解,即T = 0Z = 0.正则化项\left\| {\boldsymbol{T}} \right\|_{\rm{F}}^2能够平衡尺度,否则- \log\; \det {\boldsymbol{T }}项可以无限增加,产生另一个极端退化解.

    Ravishankar等人在文献[22]中提出了一种交替更新的方式解决转换学习问题.具体算法为

    \begin{aligned}&{\boldsymbol{Z}}\leftarrow \mathop{\mathrm{min}}\limits_{\boldsymbol Z}\Vert {\boldsymbol{TX}}-{\boldsymbol{Z}}{\Vert }_{\rm F}^{2}+\mu \Vert {\boldsymbol{Z}}{\Vert }_{1}, \\ &{\boldsymbol{T}}\leftarrow \mathop{\mathrm{min}}\limits_{\boldsymbol T}\Vert {\boldsymbol{TX}}-{\boldsymbol{Z}}{\Vert }_{\rm F}^{2}+\lambda \left(\Vert {\boldsymbol{T}}{\Vert }_{\rm F}^{2}-\mathrm{log}\;\mathrm{det}{\boldsymbol{T}}\right).\end{aligned} (4)

    通过软阈值函数直接求解{\boldsymbol{Z}}

    {\boldsymbol{Z}} \leftarrow {\rm{sig}}({\boldsymbol{TX}}) {\Large \cdot} \max (0,{\rm{abs}}({\boldsymbol{TX}}) - \mu ), (5)

    其中“{\Large \cdot}”表示元素积.对于更新转换矩阵{\boldsymbol{T}},可以发现式(4)中各项的梯度都非常容易计算,求导结果为

    \begin{aligned}&\nabla \Vert {\boldsymbol{TX}}-{\boldsymbol{Z}}{\Vert }_{\rm F}^{2}=2{\boldsymbol X}^{\rm T}({\boldsymbol{TX}}-{\boldsymbol{Z}}),\\ &\nabla \Vert {\boldsymbol{T}}{\Vert }_{\rm F}^{2}=2{\boldsymbol{T}},\\ &\nabla \mathrm{log}\;\mathrm{det}{\boldsymbol{T}}={\left({\boldsymbol T}^{-1}\right)}^{\rm T}.\end{aligned} (6)

    在最初关于转换学习的文献[22]中,提出了一种基于非线性共轭梯度技术来解决转换矩阵的更新问题.接着,在文献[23]中,通过一些线性代数技巧,证明了该迭代更新算法的收敛性.

    \begin{aligned} &{\boldsymbol{X}}{{\boldsymbol{X}}^{\rm{T}}} + \lambda {\boldsymbol{I}} = {\boldsymbol{L}}{{\boldsymbol{L}}^{\rm T}}, \\ &{{\boldsymbol{L}}^{ - 1}}{\boldsymbol{X}}{{\boldsymbol{Z}}^{\rm T}} = {\boldsymbol{US}}{{\boldsymbol{V}}^{\rm T}}, \\ &{\boldsymbol{T}} = 0.5{\boldsymbol{U}}\left( {{\boldsymbol{S}} + {{\left( {{{\boldsymbol{S}}^2} + 2\lambda {\boldsymbol{I}}} \right)}^{1/2}}} \right){{\boldsymbol{V}}^{\rm T}}{{\boldsymbol{L}}^{ - 1}}. \end{aligned} (7)

    该算法首先进行霍尔茨基分解,{\boldsymbol{X}}{{\boldsymbol{X}}^{\rm T}} + \lambda {\boldsymbol{I}}是正定对称矩阵,其中{\boldsymbol{I}} 为单位矩阵;接着进行奇异值分解;最后一步对转换矩阵{\boldsymbol{T}}进行更新.可以发现,{\boldsymbol{L}}是一个下三角矩阵,因此{{\boldsymbol{L}}^{ - 1}}很容易计算,这极大地减少了计算量,提高了运算效率.由于代价函数是一个单调递减函数,并存在下限,因此代价函数收敛,它的闭式解存在.

    近年来,基于图的半监督分类吸引了广泛关注.例如,Zhu等人[24]设计了一种基于高斯场和谐波函数(Gaussian field and harmonic function, GFHF)的半监督分类算法,它利用图上的高斯随机场上的谐波特性进行半监督分类.尽管该算法已经取得了广泛的普及,但其分类性能很大程度上仍然取决于输入图.

    有一些半监督分类算法关注构造图的鲁棒性对于分类性能的影响.例如,Nie等人[25]提出了一种基于最小化谱嵌入的{\ell _{\text{1}}}-范数的半监督分类算法;古楠楠等人[26]提出了一种基于放射子空间稀疏表示的图构造方法,这种方法能够快速对新来样本点进行分类,并且继承了稀疏表示的能够自适应进行邻域选择以及具有较高判别性的优点.

    尽管文献[2526]所提的算法在很多方面已经取得了成效,可以避免直接从嘈杂数据中构造图,但由于图构建和标签传播是分开进行的,其分类性能仍然可能受到影响.

    本文提出的算法使用转换学习将原始数据映射到转换空间中,并在转换空间上学习一个图,最后在图上进行标签传播.

    本文提出的框架其综合表述为

    \mathop {\min }\limits_{{\boldsymbol{T}},{\boldsymbol{Z}},{\boldsymbol{C}},{\boldsymbol{F}}} \varPhi ({\boldsymbol{X}},{\boldsymbol{T}},{\boldsymbol{Z}}) + \alpha \varOmega ({\boldsymbol{Z}},{\boldsymbol{C}}) + \beta \varTheta ({\boldsymbol{C}},{\boldsymbol{F}},{\boldsymbol{Y}}), (8)

    其中,{\boldsymbol{T}}是转换矩阵,{\boldsymbol{Z}}表示系数矩阵,{\boldsymbol{C}}代表一个建立在转换空间上的图的邻接矩阵,{\boldsymbol{F}}表示标签指示矩阵. \alpha \beta 是参数,用于平衡式(8)的3个函数\varPhi() \varOmega() \varTheta() 部分之间的作用.本文将会详细讨论问题(8)中的各项.

    本文已经在1.1节讨论了转换学习的现有概念.为了在转换空间中构建一个图并进行标签传播,首先需要从原始数据中学习到一个转换空间:

    \varPhi ({\boldsymbol{X}},{\boldsymbol{T}},{\boldsymbol{Z}})=\Vert {\boldsymbol{TX}}-{\boldsymbol{Z}}{\Vert }_{\rm F}^{2} +\lambda (\Vert {\boldsymbol{T}}{\Vert }_{\rm F}^{2}-\mathrm{log}\;\mathrm{det}{\boldsymbol{T}})+u\Vert {\boldsymbol{Z}}{\Vert }_{1}. (9)

    式(9)在原始数据{\boldsymbol{X}}中学习了系数矩阵{\boldsymbol{Z}},本节将在系数矩阵{\boldsymbol{Z}}上建立一个图,{\boldsymbol{Z}}中每个样本(即每行)对应该图中一个节点.2节点之间的相似度很高(或者相关性很强),则对应的节点之间将存在1条边,这条边的权重正比于样本之间的相似度(或相关性).

    定义图的邻接矩阵{\boldsymbol{C}} = ({C_{ij}}),其中 {C_{ij}} 表示第 i 行和第 j 行之间的相似度.本文借鉴数据自表示的思想来建立相似度矩阵[27],其核心思想是数据来自多个子空间,每个样本都可以用同一个子空间的样本的线性组合来表示.数学上,通过式(10)求解:

    \mathop{\mathrm{min}}\limits_{\boldsymbol C}\Vert {\boldsymbol{Z}}-{\boldsymbol{ZC}}{\Vert }_{\rm F}^{2}, (10)

    因此,式(8)的第2项可以表示为

    \varOmega ({\boldsymbol{Z}},{\boldsymbol{C}})=\Vert {\boldsymbol{Z}}-{\boldsymbol{ZC}}{\Vert }_{\rm F}^{2}. (11)

    式(11)自动地从数据中学到了一个图,但本文不能保证它对接下来的分类是最优的.理想情况下,如果数据中有 c 类的话,图{\boldsymbol{C}}应该恰好拥有 c 个连通成分.使用 {\sigma _i} 表示拉普拉斯矩阵{\boldsymbol{L}}中第 i 个最小的特征值.由于{\boldsymbol{L}}是一个半正定矩阵,所以 {\sigma _i} > 0 .为了解决这个问题,可以采用定理1:

    定理1. 图{\boldsymbol{C}}的连通分量 c 的个数等于其拉普拉斯矩阵{\boldsymbol{L}}的零特征值的重数[28].

    根据定理1,当\displaystyle\sum\limits_{i = 1}^c {{\sigma _i}} \left( {\boldsymbol{L}} \right) = 0时,可以确定{\boldsymbol{L}}的秩 N - c .根据Chung[29]提出的理论,有

    \displaystyle\sum\limits_{i = 1}^c {{\sigma _i}} = \mathop {\min }\limits_{\boldsymbol F,{\boldsymbol {F}^{\rm T}}\boldsymbol {F} =\boldsymbol {I}} {\rm{tr}}\left( {{{\boldsymbol{F}}^{\rm T}}{\boldsymbol{LF}}} \right), (12)

    在半监督学习中,矩阵F可以被分解成{\boldsymbol{F}} = ({{\boldsymbol{F}}_l};{{\boldsymbol{F}}_u}) = ({{\boldsymbol{Y}}_l};{{\boldsymbol{F}}_u}).根据Nie等人[18]提出的理论,式(12)的等号右边其实就是半监督分类的标签传播目标函数.因此,式(8)的第3项可以表示为

    \begin{aligned} &\varTheta ({\boldsymbol{C}},{\boldsymbol{F}},{\boldsymbol{Y}}) = {\rm{tr}}({{\boldsymbol{F}}^{\rm T}}{\boldsymbol{LF}}), \\ &{\rm{s.t.}}\;\;{{\boldsymbol{Y}}_l} = {{\boldsymbol{F}}_l}.\end{aligned} (13)

    根据式(9)(11)(13),TLSSC目标函数可写为

    \begin{aligned}&\mathop{\mathrm{min}}\limits_{\boldsymbol T,\boldsymbol Z,\boldsymbol C,\boldsymbol F}\Vert {\boldsymbol {TX}}-{\boldsymbol Z}{\Vert }_{\rm F}^{2}+\lambda \left(\Vert {\boldsymbol T}{\Vert }_{\rm F}^{2}-\mathrm{log}\;\mathrm{det}{\boldsymbol T}\right)+u\Vert {\boldsymbol{Z}}{\Vert }_{1}+\\ &\alpha \Vert {\boldsymbol Z}-{\boldsymbol {ZC}}{\Vert }_{\rm F}^{2}+\beta {\rm{tr}}({\boldsymbol F}^{\rm T}{\boldsymbol{LF}}),\\ &{\rm{s.t.}}\;\;{\boldsymbol Y}_{l}={\boldsymbol F}_{l},\end{aligned} (14)

    可以观察到,式(14)将转换学习、图构建和标签传播整合到一个统一的框架中,矩阵T, Z, C, F的联合优化有助于实现整体的最优解.系数矩阵{\boldsymbol{Z}}建立在转换空间中.

    本节基于一种交替迭代的策略来求解式(14),即固定某一个变量的同时确定另一个变量.

    1)更新转换矩阵T.当固定矩阵Z, C, F后,式(14)变为以下形式:

    \mathop{\mathrm{min}}\limits_{\boldsymbol T}\Vert {\boldsymbol {TX}}-{\boldsymbol Z}{\Vert }_{\rm F}^{2}+\lambda \left(\Vert {\boldsymbol T}{\Vert }_{\rm F}^{2}-\mathrm{log}\;\mathrm{det}{\boldsymbol T}\right). (15)

    如第1节中所述,式(15)可以通过非线性共轭梯度技术来解决.

    \begin{aligned} &{\boldsymbol{X}}{{\boldsymbol{X}}^{\rm T}} + \lambda {\boldsymbol{I}} = {\boldsymbol{L}}{{\boldsymbol{L}}^{\rm T}}, \\ &{{\boldsymbol{L}}^{ - 1}}{\boldsymbol{Z}}{{\boldsymbol{X}}^{\rm T}} = {\boldsymbol{US}}{{\boldsymbol{V}}^{\rm T}}, \\ & {\boldsymbol{T}} = 0.5{\boldsymbol{V}}\left( {{\boldsymbol{S}} + {{\left( {{{\boldsymbol{S}}^2} + 2\lambda {\boldsymbol{I}}} \right)}^{1/2}}} \right){{\boldsymbol{U}}^{\rm T}}{{\boldsymbol{L}}^{ - 1}}. \end{aligned} (16)

    2)更新系数矩阵{\boldsymbol{Z}}.当固定矩阵Z, C, F后,式(14)转换为:

    \mathop{\mathrm{min}}\limits_{\boldsymbol Z}\Vert {\boldsymbol {TX}}-{\boldsymbol Z}{\Vert }_{\rm F}^{2}+u\Vert {\boldsymbol{Z}}{\Vert }_{1}+\alpha \Vert {\boldsymbol Z}-{\boldsymbol {ZC}}{\Vert }_{\rm F}^{2}, (17)

    由于有

    \begin{aligned} &\mathop{\mathrm{min}}\limits_{\boldsymbol Z}\Vert {\boldsymbol {TX}}-{\boldsymbol Z}{\Vert }_{\rm F}^{2}+u\Vert {\boldsymbol{Z}}{\Vert }_{1}+\alpha \Vert {\boldsymbol{Z}}({\boldsymbol{I}}-{\boldsymbol{C}}){\Vert }_{\rm F}^{2}\Rightarrow \\ &\mathop{\mathrm{min}}\limits_{\boldsymbol Z}{\Vert {\boldsymbol X}^{\rm T}{\boldsymbol T}^{\rm T}-{\boldsymbol Z}^{\rm T}\Vert }_{\rm F}^{2}+u{\Vert {\boldsymbol Z}^{\rm T}\Vert }_{1}+\alpha {\Vert {({\boldsymbol{I}}-{\boldsymbol{C}})}^{\rm T}{\boldsymbol Z}^{\rm T}\Vert }_{\rm F}^{2}\Rightarrow \\ &\mathop{\mathrm{min}}\limits_{\boldsymbol Z}\Vert ({\boldsymbol{TX\;\;0}})-{\boldsymbol{Z}}({\boldsymbol{I}}\;\;\sqrt{\alpha }({\boldsymbol{I}}-{\boldsymbol{C}})){\Vert }_{\rm F}^{2}+u\Vert {\boldsymbol{Z}}{\Vert }_{1}, \end{aligned} (18)

    因此式(18)仍可以用软阈值函数进一步求解.

    3)更新邻接矩阵{\boldsymbol{C }}.当固定矩阵T, Z, F后,式(14)转换为:

    \begin{aligned}&\mathop{\mathrm{min}}\limits_{\boldsymbol C}\alpha \Vert {\boldsymbol Z}-{\boldsymbol {ZC}}{\Vert }_{\rm F}^{2}+\beta {\rm{tr}}({\boldsymbol F}^{\rm T}{\boldsymbol{LF}}),\\ &{\rm{s.t.}}\;\;{\boldsymbol Y}_{l}={\boldsymbol F}_{l},\end{aligned} (19)

    式(19)可以通过逐列来求解,即

    \begin{split}&{\boldsymbol C}_{:,i}=\underset{{\boldsymbol C}_{:,i}}{\mathrm{arg}\;\mathrm{min}}\;\alpha \Vert {\boldsymbol Z}_{:,i}-{\boldsymbol{Z}}{\boldsymbol C}_{:,i}{\Vert }_{\rm F}^{2}+\beta \frac{{\boldsymbol d}_{i}^{\rm T}{\boldsymbol C}_{:,i}}{2},\\ &\text{s}\text{.t}\text{.}\;\;{d}_{ij}=\Vert {\boldsymbol F}_{i,:}-{\boldsymbol F}_{j,:}{\Vert }_{2}^{2},\end{split} (20)

    对式(20)进行求解,有

    {{\boldsymbol{C}}_{:,i}} = {(2\alpha {{\boldsymbol{Z}}^{\rm T}}{\boldsymbol{Z}})^{ - 1}}\left(2\alpha {{\boldsymbol{Z}}^{\rm T}}{{\boldsymbol{Z}}_{:,i}} - \beta \frac{{{\boldsymbol{d}}_i^{\rm T}}}{2}\right). (21)

    4)更新标签指示矩阵{\boldsymbol{F}}.固定矩阵T, Z, C后,式(14)转换为:

    \begin{aligned} &\mathop{\mathrm{min}}\limits_{\boldsymbol F}{\rm{tr}}({{\boldsymbol{F}}^{\rm T}}{\boldsymbol{LF}}),\\ &{\rm{s.t.}}\;\; {{\boldsymbol{F}}_l} = {{\boldsymbol{Y}}_l}.\end{aligned} (22)

    为了求解式(22)问题,可以将拉普拉斯矩阵分块为{\boldsymbol{L}} = \left( {\begin{array}{*{20}{c}} {{{\boldsymbol{L}}_{ll}}}&{{{\boldsymbol{L}}_{lu}}} \\ {{{\boldsymbol{L}}_{ul}}}&{{{\boldsymbol{L}}_{uu}}} \end{array}} \right),接着对式(22)进行求导,并将其一阶导数置为0,可以得到:

    {{\boldsymbol{F}}_u} = - {\boldsymbol{L}}_{uu}^{ - 1}{{\boldsymbol{L}}_{ul}}{{\boldsymbol{Y}}_l}. (23)

    将上述步骤1)~4)迭代多次,直至{\boldsymbol{F}}的变化程度小于阈值 \varepsilon .最后,未标记的数据点的标签可以通过以下决策函数得到:

    \begin{aligned} {y_i} = \;{\mathop{{\rm{arg\;max}}}_j}\;{F_{ij}}, \end{aligned} (24)
    \begin{aligned} \forall i = l + 1,l + 2, \cdots ,N,\;\;\forall j = 1,2, \cdots ,c. \end{aligned}

    完整的基于转换学习的半监督分类算法如算法1所示.

    算法1. 基于转换学习的半监督分类算法.

    输入;数据矩阵{\boldsymbol{X}},标签矩阵{{\boldsymbol{Y}}_l},参数 \alpha \beta \lambda \mu

    输出:未标记数据的标签.

    ① 初始化标签指示矩阵{{\boldsymbol{F}}_u} t = 0

    ② repeat

    ③   t = t + 1

    ④  更新转换矩阵{{\boldsymbol{T}}_t}根据式(16);

    ⑤  更新系数矩阵{{\boldsymbol{Z}}_t}根据式(18);

    ⑥  更新相似度矩阵{{\boldsymbol{C}}_t}根据式(21);

    ⑦  更新标签矩阵{{\boldsymbol{F}}_t}根据式(23);

    ⑧ until {\Vert {\boldsymbol F}_{t}-{\boldsymbol F}_{t-1}\Vert }_{\rm F}^{2} < \epsilon.

    本文提出的基于转换学习的半监督算法是采用交替迭代的更新策略,给定数据矩阵{\boldsymbol{X}} \in {\mathbb{R}^{n \times N}},固定矩阵Z, C, F,更新转换矩阵 {\boldsymbol{T}} \in {\mathbb{R}^{m \times n}} ,目标方程的各项梯度表达式如式(16)所示.为估算转换学习更新的成本,首先假定{\boldsymbol{X}}{{\boldsymbol{X}}^{\rm T}}已经预先计算,式(16)中的梯度包括了矩阵乘积{\boldsymbol{TX}}{{\boldsymbol{X}}^{\rm T}}{\boldsymbol{Z}}{{\boldsymbol{X}}^{\rm T}}.计算{\boldsymbol{T}}({\boldsymbol{X}}{{\boldsymbol{X}}^{\rm T}})需要{n^3}次乘加运算,矩阵乘积{\boldsymbol{Z}}{{\boldsymbol{X}}^{\rm T}}在每次更新都会计算,并且当{\boldsymbol{Z}}是稀疏的且有Nm个非零元素时 m = \alpha n (一般\alpha \ll 1),计算{\boldsymbol{Z}}{{\boldsymbol{X}}^{\rm T}}需要\alpha N{n^2}次乘加操作.接下来式(6)中剩下的梯度计算主要由{C_3}{n^3}决定(矩阵求逆过程),其中{C_3}是一个常数.因此,转换学习更新步骤的计算成本大约为\alpha N{n^2} + (1 + {C_3})L{n^3},其中L通常是固定的共轭梯度步数.假设(1 + {C_3})nL < \alpha N,那么每次转换学习更新的成本可以缩放为O(N{n^2}).每次更新系数矩阵{\boldsymbol{Z}} \in {\mathbb{R}^{m \times N}},使用了 {\ell _1} - 范数,并且使用软阈值求解 {\boldsymbol{Z}} ,需要进行O(nN)次操作,同时计算{\boldsymbol{TX}}(在阈值设定之前)需要O(N{n^2})次操作,子空间矩阵计算{\boldsymbol{ZC}}需要O({N^3})次操作,每次更新系数矩阵复杂度为nN + N{n^2} + {N^3}n < N,最终每次更新系数矩阵的成本缩放为 O({N^3}) .更新邻接矩阵{\boldsymbol{C}},固定矩阵T, Z, F后,逐列来求解{\boldsymbol{C}},假定{\boldsymbol{Z}}{{\boldsymbol{Z}}^{\rm T}}预先计算,复杂度为 O({C_4}{N^3}) {C_4} 是不同矩阵求逆的常数系数.同样每次迭代更新标签指示矩阵{\boldsymbol{F}}的复杂度也可以缩放为 O({N^3}) .最后我们提出的交替迭代更新策略的每次迭代(4次交替更新)的总成本可以缩放在 O({N^3}) 范围内,与其他算法每次迭代成本对比,计算复杂度有所降低.

    为了评价本文算法的分类性能,本节在以下3个标准数据集和2个扩充数据集上进行了分类实验.

    1)YALE人脸数据库.由耶鲁大学计算视觉与控制中心创建,包含15位志愿者的165张图片,每个对象采集的样本包含11张有明显的光照变化的近额图像.图1(a)展示了一些示例图片.

    图  1  3个数据集样本的示例
    Figure  1.  Sample images of three datasets

    2)JAFFE人脸数据集.包含10位日本女性志愿者的213张图片,每个对象的样本包含7种不同的面部表情.图1(b)展示了一些示例.

    3)COIL20图像数据集.由哥伦比亚大学图像库发布,包含20个物体在360°旋转中不同角度成像的图片,每个对象包含72种姿势.图1(c)展示了一些示例.

    4)COIL100图像数据集.包含100个物体,每个物体72张图片在360°旋转中不同角度成像的图片.

    5)YALEB.耶鲁大学扩充人脸数据库,总样本数2414张,共38类,每类大约64张图片,每张图片在不同的光照条件和不同的面部表情下拍摄.

    本节将TLSSC与4种现有具有代表性的算法进行了比较:

    1)LGC(learning with local and global consistency)算法.由Zhou等人[30]提出,是一种广泛使用的半监督分类算法.

    2)GFHF(Gaussian fields and harmonic functions)算法.它是除了LGC外的另一个流行的标签传播算法.

    3)S2LRR(semi-supervised low-rank representation)算法.Li等人[31]提出了一种基于自表达的方法来构建半监督学习图.相似度矩阵和类别指示矩阵交替迭代更新,从而达到互相学习和提高.基于低秩假设,得到 S2LRR模型.

    4)SCAN(semi-supervised classification with adaptive neighbors)算法.Nie等人[18]提出一种基于图的方法,使用自适应邻近点的方法构造相似度矩阵,将图构造和标签传播集合到一个框架中联合优化.

    在上述4种算法中,LGC与GFHF均以拉普拉斯矩阵作为输入.为了使其获得更好的性能,本文基于7种核矩阵计算拉普拉斯矩阵,其中7种核矩阵包含4个形式分别为 t \in \left\{ {0.1,1,10,100} \right\} 的高斯核、1个形式为K({\boldsymbol{x}},{\boldsymbol{y}}) = {{\boldsymbol{x}}^{\rm T}}{\boldsymbol{y}}的线性核,以及2个形式为K({\boldsymbol{x}},{\boldsymbol{y}}) = {(\alpha + {{\boldsymbol{x}}^{\rm T}}{\boldsymbol{y}})^2} \alpha \in \left\{ {0,1} \right\} 的多项式核.另外2种算法则直接从原始数据中构建图.

    所有算法均选择10%,30%,50%有标签的数据,重复实验20次,将分类准确度(accuracy,Acc)和标准差记录于表1中.所有算法都选择了在最好参数下的结果,LGC和GFHF算法选择了在最好的核矩阵下产生的结果.结果显示,当标签比例增大时,所有方法的分类准确度都有所上升,在大多情况下,TLSSC算法的分类性能比其他现有算法更好,尤其在YALE数据集上得到了大量的提升.另外,相对于紧密相关的S2LRR算法,TLSSC在大部分情况下也大大提升了分类性能,尤其是在YALE和COIL100数据集上.

    表  1  各种算法在数据集上的Acc实验结果
    Table  1.  Experimental Results of Classification Accuracy for Each Algorithm on Benchmark Data Sets %
    数据集标记数据占比GFHFLGCSCANS2LRRTLSSC
    YALE1038.00±11.9147.33±13.9645.07±1.3028.77±9.5950.00±12.01
    3054.13±9.4763.08±2.2060.92±4.0342.58±5.9372.88±2.72
    5060.28±5.1669.56±5.4268.94±4.5751.22±6.7880.11±3.73
    JAFFE1092.85±7.7696.68±2.7696.92±1.6894.38±6.2383.83±12.73
    3098.50±1.0198.86±1.1498.20±1.2298.82±1.0598.98±1.29
    5098.94±1.1199.29±0.9499.25±5.7999.47±0.5999.51±0.67
    COIL201087.74±2.2685.43±1.4090.09±1.1581.10±1.6987.65±2.0
    3095.48±1.4087.82±1.0395.27±0.9387.69±1.3996.56±2.04
    5098.62±0.7188.47±0.4597.53±0.8290.92±1.1997.68±1.69
    COIL1001051.27±0.7369.41±1.5178.95±2.2344.30±1.5680.52±2.04
    3064.85±0.4980.16±1.3288.39±1.3858.63±1.4490.84±1.26
    5072.10±0.7084.93±1.2691.98±1.1762.84±2.4993.57±1.03
    YALEB1011.19±1.6723.76±1.5355.15±2.4964.14±3.4766.83±4.35
    3029.45±2.2039.69±2.8269.21±2.5584.69±0.7486.91±3.63
    5044.63±1.8348.74±2.0673.66±1.8089.84±0.7388.59±1.47
    注:黑体值为最优结果,±为标准偏差符号.
    下载: 导出CSV 
    | 显示表格

    图2展示了邻接矩阵{\boldsymbol{C}}在3个数据集上的分布,可以发现{\boldsymbol{C}}几乎可以被视作为块对角矩阵,这符合本文的预期,说明了在数据集上学到的图能很好地反映样本间的关系.

    图  2  邻接矩阵 {\boldsymbol{C}} 在3个数据集上的分布
    Figure  2.  Distribution of the adjacency matrix {\boldsymbol{C}} on 3 datasets

    为了测试TLSSC算法对参数αβλμ的敏感性,文本以JAFFE数据集为例,在图3中给出了在λ = 0.0001,μ = 0.00001时,不同αβ在不同标签比例下的实验精度.可以发现,当标签比例减小时,分类准确率有所下降;在标签比例较小时,参数αβ的变化对分类结果影响较大.而图4给出了在α = 0.0001, β = 0.0001 时,不同λμ在不同标签比例下的实验精度.图4的结果显示,λ的变化对分类结果的影响更小,而且在μ取较小的值时性能相对好一些.

    图  3  αβ在JAFFE数据集上Acc的影响
    Figure  3.  Influence of α and β on Acc in JAFFE dataset
    图  4  λμ在JAFFE数据集上Acc的影响
    Figure  4.  Influence of λ and μ on Acc in JAFFE dataset

    本文提出了一种基于转换学习的半监督分类算法,该算法提出了一个统一联合优化框架.该框架首先利用转换学习,将原始数据映射到一个数据平面(转换空间);接着借鉴数据自表示思想,在转换空间中构建了一个图,并在图上进行标签传播.该框架集成了转换学习、图构建和标签传递3个步骤,联合统一优化有利于获得全局最优解.实验表明,本文提出的TLSSC算法在大部分情况下优于其他现有分类算法,证明了该算法的有效性.

    作者贡献声明:康昭负责论文方案设计实施、实验结果整理与分析以及论文整体攥写和修订;刘亮和韩蒙负责论文撰写与修订.

  • 图  1   3个数据集样本的示例

    Figure  1.   Sample images of three datasets

    图  2   邻接矩阵 {\boldsymbol{C}} 在3个数据集上的分布

    Figure  2.   Distribution of the adjacency matrix {\boldsymbol{C}} on 3 datasets

    图  3   αβ在JAFFE数据集上Acc的影响

    Figure  3.   Influence of α and β on Acc in JAFFE dataset

    图  4   λμ在JAFFE数据集上Acc的影响

    Figure  4.   Influence of λ and μ on Acc in JAFFE dataset

    表  1   各种算法在数据集上的Acc实验结果

    Table  1   Experimental Results of Classification Accuracy for Each Algorithm on Benchmark Data Sets %

    数据集标记数据占比GFHFLGCSCANS2LRRTLSSC
    YALE1038.00±11.9147.33±13.9645.07±1.3028.77±9.5950.00±12.01
    3054.13±9.4763.08±2.2060.92±4.0342.58±5.9372.88±2.72
    5060.28±5.1669.56±5.4268.94±4.5751.22±6.7880.11±3.73
    JAFFE1092.85±7.7696.68±2.7696.92±1.6894.38±6.2383.83±12.73
    3098.50±1.0198.86±1.1498.20±1.2298.82±1.0598.98±1.29
    5098.94±1.1199.29±0.9499.25±5.7999.47±0.5999.51±0.67
    COIL201087.74±2.2685.43±1.4090.09±1.1581.10±1.6987.65±2.0
    3095.48±1.4087.82±1.0395.27±0.9387.69±1.3996.56±2.04
    5098.62±0.7188.47±0.4597.53±0.8290.92±1.1997.68±1.69
    COIL1001051.27±0.7369.41±1.5178.95±2.2344.30±1.5680.52±2.04
    3064.85±0.4980.16±1.3288.39±1.3858.63±1.4490.84±1.26
    5072.10±0.7084.93±1.2691.98±1.1762.84±2.4993.57±1.03
    YALEB1011.19±1.6723.76±1.5355.15±2.4964.14±3.4766.83±4.35
    3029.45±2.2039.69±2.8269.21±2.5584.69±0.7486.91±3.63
    5044.63±1.8348.74±2.0673.66±1.8089.84±0.7388.59±1.47
    注:黑体值为最优结果,±为标准偏差符号.
    下载: 导出CSV
  • [1] 许震,沙朝锋,王晓玲,等. 基于KL距离的非平衡数据半监督学习算法[J]. 计算机研究与发展,2010,47(1):81−87

    Xu Zhen, Sha Chaofeng, Wang Xiaoling, et al. A semi-supervised learning algorithm from imbalanced data based on KL divergence[J]. Journal of Computer Research and Development, 2010, 47(1): 81−87 (in Chinese)

    [2] 李宇峰,黄圣君,周志华. 一种基于正则化的半监督多标记学习方法[J]. 计算机研究与发展,2012,49(6):1272−1278

    Li Yufeng, Huang Shengjun, Zhou Zhihua. Regularized semi-supervised multi-label learning[J]. Journal of Computer Research and Development, 2012, 49(6): 1272−1278 (in Chinese)

    [3] 周志华. 基于分歧的半监督学习[J]. 自动化学报,2013,39(11):1871−1878 doi: 10.3724/SP.J.1004.2013.01871

    Zhou Zhihua. Disagreement-based semi-supervised learning[J]. Acta Automatica Sinica, 2013, 39(11): 1871−1878 (in Chinese) doi: 10.3724/SP.J.1004.2013.01871

    [4] 张晨光,张燕,张夏欢. 最大规范化依赖性多标记半监督学习方法[J]. 自动化学报,2015,41(9):1577−1588

    Zhang Chenguang, Zhang Yan, Zhang Xiahuan. Normalized dependence maximization multi-label semi-supervised learning method[J]. Acta Automatica Sinica, 2015, 41(9): 1577−1588 (in Chinese)

    [5] 陈荣,曹永锋,孙洪. 基于主动学习和半监督学习的多类图像分类[J]. 自动化学报,2011,37(8):954−962

    Chen Rong, Cao Yongfeng, Sun Hong. Multi-class image classification with active learning and semi-supervised learning[J]. Acta Automatica Sinica, 2011, 37(8): 954−962 (in Chinese)

    [6] 张永,陈蓉蓉,张晶. 基于交叉熵的安全Tri-training算法[J]. 计算机研究与发展,2021,58(1):60−69 doi: 10.7544/issn1000-1239.2021.20190838

    Zhang Yong, Chen Rongrong, Zhang Jing. Safe Tri-training algorithm based on cross entropy[J]. Journal of Computer Research and Development, 2021, 58(1): 60−69 (in Chinese) doi: 10.7544/issn1000-1239.2021.20190838

    [7] 李明,杨艳屏,占惠融. 基于局部聚类与图方法的半监督学习算法[J]. 自动化学报,2010,36(12):1655−1660

    Li Ming, Yang Yanping, Zhan Huirong. Semi-supervised learning based on graph and local quick shift[J]. Acta Automatica Sinica, 2010, 36(12): 1655−1660 (in Chinese)

    [8] 张震,汪斌强,李向涛,等. 基于近邻传播学习的半监督流量分类方法[J]. 自动化学报,2013,39(7):1100−1109

    Zhang Zhen, Wang Binqiang, Li Xiangtao, et al. Semi-supervised traffic identification based on affinity propagation[J]. Acta Automatica Sinica, 2013, 39(7): 1100−1109 (in Chinese)

    [9]

    Bo Xiaofan, Kang Zhao, Zhao Zhitong, et al. Latent multi-view semi-supervised classification[C] //Proc of the 11th Asian Conf on Machine Learning. PMLR, 2019 [2022-01-27]. http://proceedings.mlr.press/v101/bo19a.html

    [10]

    Kang Zhao, Pan Haiqi, Hoi S C H, et al. Robust graph learning from noisy data[J]. IEEE Transactions on Cybernetics, 2020, 50(5): 1833−1843 doi: 10.1109/TCYB.2018.2887094

    [11]

    Kang Zhao, Xu Zenglin, Lu Xiao, et al. Self-weighted multiple kernel learning for graph-based clustering and semi-supervised classification[C] //Proc of the 27th Int Joint Conf on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2018: 2312−2318

    [12] 刘钰峰,李仁发. 异构信息网络上基于图正则化的半监督学习[J]. 计算机研究与发展,2015,52(3):606−613 doi: 10.7544/issn1000-1239.2015.20131147

    Liu Yufeng, Li Renfa. Graph regularized semi-supervised learning on heterogeneous information networks[J]. Journal of Computer Research and Development, 2015, 52(3): 606−613 (in Chinese) doi: 10.7544/issn1000-1239.2015.20131147

    [13]

    Zhu Xiaojin, Ghahramani Z. Learning from labeled and unlabeled data with label propagation, CMU-CALD-02-107[R]. Pittsburgh, PA: Carnegie Mellon University, 2002

    [14]

    Jebara T, Wang Jun, Chang Shifu. Graph construction and b-matching for semi-supervised learning[C] //Proc of the 26th Annual Int Conf on Machine Learning. New York: ACM, 2009: 441−448

    [15]

    Cheng Hong, Liu Zicheng, Yang Jie. Sparsity induced similarity measure for label propagation[C] //Proc of the 12th Int Conf on Computer Vision. Los Alamitos, CA: IEEE Computer Society, 2009: 317−324

    [16]

    Li Sheng, Fu Yun. Learning balanced and unbalanced graphs via low-rank coding[J]. IEEE Transactions on Knowledge and Data Engineering, 2014, 27(5): 1274−1287

    [17]

    Wang Fei, Zhang Changshui. Label propagation through linear neighborhoods[J]. IEEE Transactions on Knowledge and Data Engineering, 2007, 20(1): 55−67

    [18]

    Nie Feiping, Cai Guohao, Li Xuelong. Multi-view clustering and semi-supervised classification with adaptive neighbours[C] //Proc of the 31st AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2017: 2408−2414

    [19]

    Kang Zhao, Guo Zipeng, Huang Shudong, et al. Multiple partitions aligned clustering[C] //Proc of the 28th Int Joint Conf on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2019: 2701−2707

    [20]

    Maggu J, Majumdar A, Chouzenoux E. Transformed subspace clustering[J]. IEEE Transactions on Knowledge and Data Engineering, 2020, 33(4): 1796−1801

    [21]

    Ravishankar S, Bresler Y. Learning sparsifying transforms[J]. IEEE Transactions on Signal Processing, 2012, 61(5): 1072−1086

    [22]

    Ravishankar S, Wen B, Bresler Y. Online sparsifying transform learning—part I: Algorithms[J]. IEEE Journal of Selected Topics in Signal Processing, 2015, 9(4): 625−636 doi: 10.1109/JSTSP.2015.2417131

    [23]

    Ravishankar S, Bresler Y. Online sparsifying transform learning—part II: Convergence analysis[J]. IEEE Journal of Selected Topics in Signal Processing, 2015, 9(4): 637−646 doi: 10.1109/JSTSP.2015.2407860

    [24]

    Zhu Xiaojin, Ghahramani Z, Lafferty J D. Semi-supervised learning using Gaussian fields and harmonic functions[C] //Proc of the 20th Int Conf on Machine Learning. Palo Alto, CA: AAAI Press, 2003: 912−919

    [25]

    Nie Feiping, Wang Hua, Huang Heng, et al. Unsupervised and semi-supervised learning via ℓ1-norm graph [C] //Proc of the 13th IEEE Int Conf on Computer Vision. Los Alamitos, CA: IEEE Computer Society, 2011: 2268−2273

    [26] 古楠楠,樊明宇,王迪,等. 基于仿射子空间稀疏表示的半监督分类[J]. 中国科学:信息科学,2015,45(8):985−1000 doi: 10.1360/N112015-00106

    Gu Nannan, Fan Mingyu, Wang Di, et al. Semi-supervised classification based on affine subspace sparse representation[J]. SCIENTIA SINICA Informationis, 2015, 45(8): 985−1000 (in Chinese) doi: 10.1360/N112015-00106

    [27]

    Lu Canyi, Min Hai, Zhao Zhongqiu, et al. Robust and efficient subspace segmentation via least squares regression [C] //Proc of the 12th European Conf on Computer Vision. Berlin: Springer, 2012: 347−360

    [28]

    Mohar B, Alavi Y, Chartrand G, et al. The Laplacian spectrum of graphs[J]. Graph Theory, Combinatorics, and Applications, 1991, 2(12): 871−898

    [29]

    Chung F R K. Spectral Graph Theory[M]. Providence, Rhode Island: American Mathematical Society, 1997

    [30]

    Zhou Dengyong, Bousquet O, Lal T N, et al. Learning with local and global consistency[C] //Proc of the 16th Int Conf on Neural Information Processing Systems. Cambridge, MA: MIT Press, 2003: 321−328

    [31]

    Li Chunguang, Lin Zhouchen, Zhang Honggang, et al. Learning semi-supervised representation towards a unified optimization framework for semi-supervised learning[C] //Proc of the 15th IEEE Int Conf on Computer Vision. Los Alamitos, CA: IEEE Computer Society, 2015: 2767−2775

  • 期刊类型引用(6)

    1. 齐锐,彭依明,万静. 基于边缘计算的异构集群混合式资源调度方法. 电气技术与经济. 2025(01): 57-59 . 百度学术
    2. 任晓旭,仇超,邓辉,戴子明,刘泽军,王晓飞. 边缘智能融合区块链:研究现状、应用及挑战. 信息与控制. 2024(01): 1-16 . 百度学术
    3. 王斌,马重阳,彭博,牛莹. 基于区块链的分布式算力资源调度机制. 中国宽带. 2024(05): 139-141 . 百度学术
    4. 崔佳怡,谢人超,唐琴琴. 基于生成式人工智能的算力网络自智优化研究综述. 中兴通讯技术. 2024(06): 54-62 . 百度学术
    5. 夏景旋 ,申国伟 ,郭春 ,崔允贺 . USPS:面向算力资源高效协同的用户态跨协议代理系统. 计算机科学. 2023(11): 348-355 . 百度学术
    6. 周旭,李琢. 面向算力网络的云边端协同调度技术. 中兴通讯技术. 2023(04): 32-37 . 百度学术

    其他类型引用(3)

图(4)  /  表(1)
计量
  • 文章访问数:  225
  • HTML全文浏览量:  36
  • PDF下载量:  153
  • 被引次数: 9
出版历程
  • 收稿日期:  2021-08-12
  • 修回日期:  2022-04-23
  • 网络出版日期:  2023-02-10
  • 刊出日期:  2022-12-31

目录

/

返回文章
返回