Processing math: 100%
  • 中国精品科技期刊
  • CCF推荐A类中文期刊
  • 计算领域高质量科技期刊T1类
高级检索

基于双端联合学习的多视图聚类

杜亮, 李晓东, 陈艳, 周芃, 钱宇华

杜亮, 李晓东, 陈艳, 周芃, 钱宇华. 基于双端联合学习的多视图聚类[J]. 计算机研究与发展. DOI: 10.7544/issn1000-1239.202440175
引用本文: 杜亮, 李晓东, 陈艳, 周芃, 钱宇华. 基于双端联合学习的多视图聚类[J]. 计算机研究与发展. DOI: 10.7544/issn1000-1239.202440175
Du Liang, Li Xiaodong, Chen Yan, Zhou Peng, Qian Yuhua. Double-Ended Joint Learning for Multi-View Clustering[J]. Journal of Computer Research and Development. DOI: 10.7544/issn1000-1239.202440175
Citation: Du Liang, Li Xiaodong, Chen Yan, Zhou Peng, Qian Yuhua. Double-Ended Joint Learning for Multi-View Clustering[J]. Journal of Computer Research and Development. DOI: 10.7544/issn1000-1239.202440175
杜亮, 李晓东, 陈艳, 周芃, 钱宇华. 基于双端联合学习的多视图聚类[J]. 计算机研究与发展. CSTR: 32373.14.issn1000-1239.202440175
引用本文: 杜亮, 李晓东, 陈艳, 周芃, 钱宇华. 基于双端联合学习的多视图聚类[J]. 计算机研究与发展. CSTR: 32373.14.issn1000-1239.202440175
Du Liang, Li Xiaodong, Chen Yan, Zhou Peng, Qian Yuhua. Double-Ended Joint Learning for Multi-View Clustering[J]. Journal of Computer Research and Development. CSTR: 32373.14.issn1000-1239.202440175
Citation: Du Liang, Li Xiaodong, Chen Yan, Zhou Peng, Qian Yuhua. Double-Ended Joint Learning for Multi-View Clustering[J]. Journal of Computer Research and Development. CSTR: 32373.14.issn1000-1239.202440175

基于双端联合学习的多视图聚类

基金项目: 国家自然科学基金项目(62376146,62176001);山西省中央引导地方科技发展专项项目(YDZJSX20231D003);安徽省高校优秀青年科学项目(2023AH030004);山西省重点研发计划项目(202202020101004);山西省自然科学基金项目(20210302123455).
详细信息
    作者简介:

    杜亮: 1985年生. 博士,副教授,博士生导师,CCF会员. 主要研究方向为无监督学习和机器学习

    李晓东: 1999年生. 硕士,CCF会员. 主要研究方向为无监督学习

    陈艳: 1994年生. 博士,讲师. 主要研究方向为无监督学习

    周芃: 1989年生. 博士,副教授,博士生导师,CCF会员. 主要研究领域为机器学习、数据挖掘、人工智能

    钱宇华: 1976年生. 教授,博士生导师. 主要研究方向为模式识别、特征选择、粗糙集理论、粒计算和人工智能

    通讯作者:

    钱宇华(jinchengqyh@126.com)

  • 中图分类号: TP181

Double-Ended Joint Learning for Multi-View Clustering

Funds: This work was supported by the National Natural Science Foundation of China (62376146,62176001), the Shanxi Province Central Guidance for Local Science and Technology Development Special Projec (YDZJSX20231D003), the Outstanding Young Science Program of Anhui Higher Education Institustions (2023AH030004), the Key Research and Development Program of Shanxi Province(202202020101004), and the Natural Science Foundation of Shanxi Province (20210302123455).
More Information
    Author Bio:

    Du Liang: born in 1985. PhD, associate professor, PhD supervisor, and member of CCF. His main research interests include unsupervised learning and machine learning

    Li Xiaodong: born in 1999. Master and member of CCF. His main research interests include unsupervised learning

    Chen Yan: born in 1994. PHD and lecture. Her main research interests include unsupervised learning

    Zhou Peng: born in 1989. PhD, associate professor, PhD supervisor, and member of CCF. His main research areas are machine learning, data mining

    Qian Yuhua: born in 1976. Professor and PhD supervisor. His main research interests include pattern recognition, feature selection, rough set theory, granular computing,and artificial intelligence

  • 摘要:

    在应对这一挑战时都面临多个问题. 其中,一致性锚点图学习方法难以处理锚点图不对齐问题,并且过度依赖一致性图,限制了其聚类结果的准确性和可靠性;锚点图集成聚类方法则是在基聚类器的生成与融合过程中割裂了不同锚点图之间的联系,影响了其聚类效果的有效性和稳定性. 为解决这些问题,提出了一种基于双端联合学习的新型多视图聚类方法. 该方法充分考虑了多锚点图信息和锚点端聚类对样本端聚类的联合作用,实现了锚点端聚类和样本端聚类同步进行,并通过对多锚点图信息的综合实现了样本端聚类与多个锚点端聚类的集成对齐. 与现有方法不同,该方法无需直接学习一致性锚点图,可以处理任意类型的锚点不对齐问题,并且规避了图学习与图划分分步处理对聚类性能的不利影响. 此外,其在一个完整的优化框架中同时利用多个锚点图进行锚点端聚类和样本端聚类,有效解决了基聚类器生成阶段无法利用除自身外的其他锚点图和集成阶段无法充分利用所有锚点图的问题. 实验结果表明,所提出的方法在聚类性能和时间消耗方面均优于多个对比方法,有效增强了多视图数据的聚类性能. 所提出方法以及所采用对比方法的相关代码附在:http://github.com/lxd1204/DLMC.

    Abstract:

    Multi-anchor graph approaches have attracted more and more attention for their potential in addressing the challenges of large-scale multi-view clustering. However, existing methods leveraging multi-anchor graphs encounter several hurdles when it comes to tackling this challenge. The consistency-anchored graph learning methods struggle with handling misaligned anchor graphs and necessitates additional post-processing with consistency graph, thereby constraining the accuracy and reliability of clustering outcomes. And the anchor graph ensemble clustering method fails to harness the complementary information from different views during the independent generation of candidate base clustering and overlooks the original anchor graphs during fusion, thus impacting the effectiveness and stability of clustering results. To address these challenges, we propose a novel approach based on double-ended joint learning for multi-view clustering. The method fully considers the duality between multi-anchor information and samples in multi-anchor graphs, achieving synchronized clustering between anchor-end and sample-end. Moreover, under the guidance of multi-anchor information, it achieves joint alignment between sample-end clustering and multiple anchor-end clustering. Unlike existing methods, the approach does not require direct learning of consistent anchor graph, thus can handle any type of anchor misalignment issues and mitigating the negative impact of separate graph learning and partitioning on clustering performance. Additionally, it utilizes multiple anchor graphs for anchor-end clustering and sample-end clustering within a unified optimization framework, effectively addressing the limitations of base clustering and the ensemble stage in leveraging multiple anchor graphs. Experimental results demonstrate that the proposed method outperforms several comparative methods in terms of clustering performance and time consumption, effectively enhancing the clustering performance of multi-view data. The relevant code for the proposed method and comparative methods is provided in the supplementary material: http://github.com/lxd1204/DLMC.

  • 自2022年底OpenAI发布ChatGPT以来[1],众多高性能的开源大模型接连发布,掀起了全球范围内前所未有的大模型浪潮. 例如大语言模型GPT-4[2]、LLaMA[3]、多模态大模型LLaVA[4]、视觉大模型SAM[5],这些大模型相较传统模型具有强大泛化能力,并呈现出了许多传统模型不具备的涌现能力,在自然语言处理和计算机视觉等领域的表现出卓越的性能. 这种卓越表现主要体现在的通用性与灵活性上,使得大模型成为解决复杂问题的重要工具,并在教育、医疗、文本生成等各个领域中均展现出非凡潜力,引起了科研界和产业界的广泛关注.

    大模型优秀的性能体现在其巨大的参数规模上,但是其参数量具有逐渐提高的趋势,如图1所示,为模型的训练和推理带来巨大的挑战. 庞大的参数规模使得大模型需要在云端才能完成训练与推理部署,而当前基于云平台的大模型训练和推理方案面临诸多挑战,包括高昂的成本、有限的可扩展性和信息安全风险等. 例如LLaMa2-70B的预训练在具有760个A100 GPU节点的超级集群上完成,总计消耗172万个GPU时[6],半精度下推理则至少需要140 GB的显存容量. 随着模型参数规模的不断扩大,对于低成本、高效训练和推理的需求显得愈发迫切.

    图  1  大模型参数量增加趋势
    Figure  1.  Trend of parameter growth in large models

    边缘智能在近年来随着物联网、云计算和大数据技术的融合与发展逐渐受到关注[7],在降低大模型成本上潜力巨大,成为推动大模型实现技术普惠的重要手段. 边缘智能指的是在网络的边缘侧,即数据源附近,进行数据处理和分析的能力. 与传统的云计算模式相比,边缘智能强调在设备或终端上直接进行计算和决策,从而实现对数据的实时、高效处理. 然而,大模型通常需要在云端或高性能计算环境中运行,这可能导致数据传输延迟和带宽限制等问题. 而边缘智能则可以在设备端或网络边缘进行数据处理和分析,减少了数据传输的延迟和带宽需求. 大模型和边缘智能可以相互协同,实现更高效的数据处理和分析. 例如,大模型可以在云端进行全局优化和决策,而边缘智能则可以在设备端进行局部优化和实时响应. 这种协同优化可以进一步提高系统的性能和效率. 目前国内部分头部手机厂商已经初步实现移动端嵌入大模型,Apple公司研发部门也提出了有限内存下大模型部署方法[8],有望将大模型融入其产品中. 可以预见大模型逐步进入移动端,甚至IoT生态中是未来不可避免的趋势.

    有关大模型边缘智能化研究方向可以被分为训练与推理2部分. 边缘侧的大模型训练,通常指的是大模型的微调训练,该过程主要包含参数高效微调和全微调2种策略. 参数高效微调旨在通过调整大模型中的一小部分参数,以适应新的任务或数据需求. 这一方法通过深入研究不同的训练参数配置或在大模型中嵌入特定模块,以实现高效的大模型微调. 而全微调训练则涉及到大模型中所有参数的调整,以全面更新模型. 鉴于数据隐私性的重要性和边缘设备的异构性特征,参数高效微调往往与联邦学习相结合,探究在联邦学习框架下如何有效提升不同参数高效微调方法的性能. 大模型推理优化技术利用大模型自身特点加速模型推理速度,包括服务优化、通用优化以及设备优化. 边缘侧大模型推理方法包括适用于边缘侧通用优化和设备优化,可以被概括为先于部署的模型压缩方法、部署后的模型层面推理优化、以及部署后的系统层面推理优化. 此外部分工作致力于提供大模型的边缘侧部署方案,这些工作通常结合上述一种或多种大模型的推理加速方法,为大模型在边缘侧部署提供便利.

    本文从边缘智能视角,全面调研了面向边缘智能的大模型相关研究,聚焦于大模型边缘训练和推理2个角度,对当前相关研究进行了深入分析和讨论. 最后,给出了面向边缘智能的大模型技术发展所面临的挑战和未来展望.

    目前在边缘侧进行大模型训练的研究主要为大模型微调,在传统微调策略中,对大型预训练模型的全部参数进行优化以适应新任务,通常在大模型场景下显得耗时且资源密集. 而参数高效微调方法通过仅修改或添加少量额外参数来实现模型的微调,同时保持模型主体的参数固定不变,从而节省资源、加速训练过程并促进模型在边缘场景下的有效应用. 然而,传统的中心化微调方法要求所有数据汇聚至中心节点,这不仅增加了数据泄露的风险,还可能导致隐私侵犯. 而联邦学习[9]作为一种新兴范式,允许数据保留在边缘设备上,仅模型的更新在加密或经过处理后被发送到中央服务器,从而显著降低了隐私泄露的风险,并满足了GDPR[10]等严格隐私保护法规的要求. 然而边缘设备往往受限于有限的计算资源、通信资源和存储资源,大型模型的庞大参数对边缘设备构成了沉重的计算与存储负担,同时也导致了高昂的通信成本. 因此在联邦学习中引入参数高效微调方法,成为解决上述问题的有效途径. 本章节将聚焦联邦参数高效微调方法,从边缘智能的视角出发,对大型模型的微调技术进行深入探讨和细致分析.

    大模型参数量规模的迅速增加使得模型在有限算力资源条件下的训练和微调更具有挑战性,为实现高效大模型预训练,现有研究从内存高效和数据高效2方面加速模型训练或降低训练成本. 然而模型规模的增大使得训练在费用、时长、能耗、数据量、硬件资源等方面的需求愈发强烈,例如175B的GPT3模型单次训练费用高达460万美元[11],使用4 990亿个token[12],预计到2027年大模型训练成本最大花费可达10亿美元[13],使得有限资源下的大模型预训练愈发困难. 微调作为一种可以将模型适配到特定领域的技术,因其无需重新训练模型参数而受到学术界和工业界广泛关注. 现有大模型微调技术研究可被分类为全参数微调和参数高效微调2方面,全参数微调通过微调大模型所有参数以取得更好的微调表现[14],因此通常导致微调开销偏大,部分研究通过优化微调过程中的参数更新步骤来降低内存需求[15-16]. 参数高效微调旨在减少模型参数更新量,仅需更新模型中的部分参数,同时保持良好的性能,以达到适应下游任务的目的[17]. 参数高效微调方法的关键在于选择哪些参数进行微调,以及如何设计有效的微调策略来优化这些参数. 与全参数微调方法相比,参数高效微调技术具有以下优点:

    1) 减少计算资源消耗. 由于只需要更新模型的一小部分参数,因此可以大大减少计算资源的消耗,加快训练速度.

    2) 降低过拟合风险. 通过仅调整模型的一部分参数,可以降低过拟合的风险,提高模型的泛化能力.

    3) 更好的可扩展性. 参数高效微调技术可以更容易地应用于不同的预训练模型和任务,具有较好的可扩展性.

    在大多数现实世界场景中,目前的微调主要以集中式的方法将数据集中在一起进行集中微调. 在边缘智能场景下进行大模型微调通常存在以下几个挑战:

    1)边缘智能环境下的数据通常包含敏感信息,集中式微调会造成敏感数据外泄风险. 如何保证数据的安全和隐私,同时进行有效的模型训练,是一个需要解决的问题.

    2)边缘设备的带宽和存储资源往往有限难以满足微调的计算和通信需求,大模型的微调需要大量的计算资源和存储空间,这使得在边缘设备上直接进行微调变得困难.

    3)边缘设备可能需要处理多种不同的任务,这些任务可能有不同的数据分布和需求. 同时边缘设备可能只有有限的数据可用,这可能导致模型微调时的过拟合或不足.

    因此目前针对边缘侧设备进行微调主要采取将联邦学习与参数高效微调技术相结合的方法[18],通过联邦学习,可以在不同数据源上协同训练模型,这有助于提高模型对不同数据集的适应性和泛化能力,并且使得数据处理过程主要在本地完成,避免了敏感数据的外泄风险,强化了隐私保护,同时使用参数高效微调技术减少了大量数据的传输,从而降低了通信成本,特别是在移动设备或边缘计算场景下尤为重要. 联邦高效参数微调技术不仅能够提高模型的性能和泛化能力,还能在保护隐私、降低计算和通信成本、提高响应速度和能源效率方面发挥重要作用. 这种结合方法为大模型的微调训练和应用提供了一种更加高效、安全和可持续的途径,特别适合于分布式和资源受限的边缘计算环境,联邦参数高效微调的流程如图2所示. 首先,服务端冻结预训练大模型的参数Wp,依据特定的参数高效微调策略确定可训练全局参数Wtc,并进行相应的初始化. 随后,服务端将可训练全局参数Wtc分发给各边缘设备. 在边缘设备上,基于本地数据集对可训练全局参数Wtc进行更新,得到本地参数Wk,tc,并将这些参数上传至服务端. 服务端接收各边缘设备的本地参数后,进行聚合更新,进而优化大模型,得到新的全局参数Wt+1c. 此过程循环往复,直至模型收敛或达到预定的训练轮次. 整个流程的关键阶段涵盖预训练大模型的初始化和参数冻结、边缘设备基于本地数据集的参数微调、以及服务端对参数的聚合与全局模型的优化. 这一流程在确保数据隐私和边缘设备资源有效利用的同时,有效提升了模型的性能.

    图  2  大模型联邦参数高效微调框架
    Figure  2.  Federated efficient fine-tuning framework for large model

    参数高效微调技术旨在仅通过调整模型的一小部分参数来适应新的任务或数据,从而提高模型的性能和泛化能力,同时减少计算和存储资源的消耗. 该技术现有研究主要包括适配器微调[19-21]、前缀微调[22-23]、提示词微调[24-26]、低秩适配[27-28]等方向,表1展示了上述几种方法的更新的参数和近期工作.

    表  1  不同微调方法的比较
    Table  1.  Comparison of Different Fine-Tuning Methods
    大模型微调技术 相关工作 更新的参数
    适配器微调 文献[1921] 适配器模块
    前缀微调 文献[2223] “前缀”向量序列
    提示微调 文献[2426] 提示词向量
    低秩适配 文献[2728] 低秩矩阵
    全微调技术 文献[14-16] 大模型所有参数
    下载: 导出CSV 
    | 显示表格

    1)适配器微调

    适配器微调技术通过向LLM插入瓶颈架构的可训练神经网络模块(即适配器Adapter),达到有效减少可训练参数量的目的. 这些适配器通常只占据原始模型大小的一小部分,但能有效地进行任务适配. 它们被插入到预训练模型的每一层或者特定的一些层中,以学习特定下游任务的知识. 适配器由2个前馈子层构成,第1个子层负责将输入维度从原始的d投影到一个较小的维度m,以此来限制适配器模块的参数量. 第2个子层则将维度m重新投影回d,输出作为适配器模块的结果.

    2)前缀微调

    前缀微调技术是一种轻量级的微调方法,它通过在输入序列前添加1个连续的、特定于任务的向量序列来实现模型的快速适应. 前缀微调技术的关键在于向模型的输入中引入一个称为“前缀”的向量序列. 这个前缀是由自由参数组成的,不与任何实际的词汇单元对应,它能够为模型提供关于当前处理任务的信息. 这种方法的核心优势在于,它只需要训练非常少的额外参数,有时甚至只需0.1%的参数,就能实现与传统微调相当甚至更优的性能.

    3)提示微调

    提示微调相关研究在模型的嵌入层加入可训练的提示词向量,将适应下游任务的提示嵌入与文本输入嵌入整合以实现模型适应下游任务并减少参数训练量的目的. 该技术主要依赖预训练语言模型的强大表达能力和泛化能力. 通过精心设计的提示词,可以激活模型中与任务相关的知识,使模型能够更好地理解和处理特定任务的数据.

    4)低秩适配

    低秩适配微调技术是一种高效微调预训练大型语言模型的方法,它主要通过在模型的权重矩阵上添加1个低秩矩阵来实现对新任务的快速适应. 低秩适配微调技术的核心思想是在预训练模型的权重矩阵中引入1个低秩矩阵,这个矩阵可以在微调过程中更新以学习特定任务的信息. 这种方法的总体思想和概念与主成分分析(principal component analysis,PCA)和奇异值分解(singular value decomposition,SVD)有关,它们都是利用低维表示来近似高维矩阵或数据集.

    大模型联邦参数高效微调方法主要基于上述不同的参数高效微调方法对其联邦化,在联邦过程中会面临着隐私和异构等联邦学习中存在的挑战,现有工作对上述挑战做了初步的探讨和研究. 另外部分工作对大模型联邦微调框架的实现进行了研究和开发,旨在构建1套完整的大模型联邦微调流程和基准. 表2展示了现有大模型联邦微调工作,并根据其支持的高效参数微调方法、隐私保护和异构问题等方面进行了对比.

    表  2  大模型联邦高效微调框架总结
    Table  2.  Summary of Federated Efficient Fine-tuning Framework for Large Models
    大模型联邦微调框架 支持的参数高效微调方法 隐私保护 异构问题
    FedPEAT[29] 适配器调优
    FedPepTAO[30] 提示调优 ×
    SLoRA[31] 低秩适配 ×
    FedPETuning[32] 适配器调优、提示调优 ×
    FederatedScope-LLM[33] 前缀调优、提示调优、低秩适配 ×
    FATE-LLM[34] 适配器调优、提示调优
    下载: 导出CSV 
    | 显示表格

    在适配器调优方面,通过联邦学习方法对不同客户端的大模型层中适配器进行协同训练,通过传递适配器层进行聚合和分发来降低计算和通信带宽的成本. 文献[29]提出了一种将离线调优方法推广到仿真器辅助调优(emulator - assisted tuning,EAT),并将其与参数高效微调相结合,创建参数高效仿真器辅助调优,将其应用扩展到联邦学习中,适配器具有可训练的神经网络参数,为特定任务定制预训练模型,而模拟器提供原始模型的压缩固定参数表示. 这种组合不仅通过避免将完整模型传输到移动边缘设备来解决模型隐私问题,而且还显着提高了内存和计算效率. 此外,最近也有研究将联邦微调应用在视觉大模型和跨模态大模型的训练阶段,例如FedDAT[35]提出针对异构多模态联邦学习的微调框架,利用双适配器结构和教师模型组成的双适配器教师模块(dual-adapter teacher,DAT)来处理数据异构性,并通过规范客户端本地更新和应用相互知识蒸馏以实现高效的知识转移,是首个能够高效分布式微调基础模型以适应多种异构视觉-语言任务的方法.

    在提示调优方面,文献[30]提出了一种参数高效的自适应优化提示调优方法,利用联邦学习(federated learning,FL)调优大型语言模型. 由于在所有提示层中传递整个参数集对应于沉重的通信成本,提出了一种根据每一层的重要性选择适当的提示层的高效方法. 同时设计了一种评分方法,根据各层对最终收敛精度的调优影响来识别各层的重要性. PromptFL[36]提出基于提示的训练框架来替换传统模型训练中训练整个共享模型的方法,只更新和传输提示,保留了CLIP模型的强大适应性和泛化能力,大幅减少了联邦学习的通信需求并提升了模型性能,保护用户隐私.

    在低秩适配调优方面,由于FL中最大的挑战之一是在异构客户端分布场景下训练时性能下降,因此文献[31]提出了一种新颖的数据驱动初始化技术克服了LoRA在高异构数据场景中的关键限制,它包括2个阶段,首先客户使用完全微调技术协作更新模型找到一个成熟的起点(初始化器)来启动LoRA块,然后使用上一阶段学习到的初始化器运行LoRA算法. SLoRA实现了与完全微调相当的性能,具有大约1%密度的显著稀疏更新,同时将训练时间减少了90%.

    在框架实现方面,由于大模型联邦微调的发展仍处于不成熟阶段,现有研究工作对大模型联邦微调算法的全面实现和基准研究不足,因此文献[32]提出了联邦参数高效微调框架,并为适配器调优、前缀调优和低秩调优方法开发了相应的联邦基准,同时测量了隐私保护能力、性能和资源成本,证明了将预训练大模型与FL相结合的潜力,为大模型时代的隐私保护学习提供了1个有前途的训练范式;文献[33]提出了1个基于FederatedScope的大模型联邦微调框架FederatedScope-LLM,该框架封装了来自不同领域的各种联邦微调数据集的集合,具有可调的数据异构级别和1套相应的评估任务,以形成1个完整的管道,以基准测试FL场景中的联邦微调大模型算法,提供了全面的联邦微调算法,具有较低的通信和计算成本以及通用的编程接口,支持客户端可以或不能访问完整模型的2种场景;文献[34]提出了一个工业级大模型联邦微调框架FATE,该框架支持同构和异构大语言模型的联邦微调训练,通过适配器调优、前缀调优等多种参数高效的微调方法促进FedLLM的高效训练,同时采用联邦知识产权保护方式保护大模型的知识产权以及通过隐私保护机制保护训练和推理过程中的数据隐私.

    大模型推理与部署是完成大模型边缘化的重要步骤,在模型的推理过程中,大模型庞大的参数规模产生了巨大的算力、内存、带宽等资源的消耗,令大模型的边缘化过程困难重重.

    现有文献综述[37-39]对大模型推理优化的调研并未有效区分边端侧推理与云端推理相关技术,并且更关注大模型的云端推理框架. 相比之下,本章节提供了边缘推理视角下的大模型优化加速与部署框架的调研,通过挑选具有代表性且适用于边缘设备推理的最新研究进展,系统性总结近年来大模型推理流程优化的创新工作,并提出相关见解. 需要指出的是,我们仅对软件层面的优化工作进行了调研,硬件加速方面的工作已有详细总结[40-42],虽然本节不包括硬件相关工作,但是这些研究在大模型迈向边缘的道路上同样起到了不可或缺的作用.

    在边缘智能的一般范式中,在应用到推理场景之前需要结合多种优化方法对模型进行进一步处理[7],并利用计算卸载、资源分配、协同等关键技术实现边缘侧优化目标[43]. 然而模型参数规模的膨胀使得这些技术在边缘侧设备的应用效果越来越不明显,为此需求对大模型进行针对性的优化,以弥补巨大的算力等资源需求与边缘侧低资源设备的间隙. 图3展示了主流大模型边缘推理的一般流程,在预训练模型正式部署服务之前,大模型边缘化关键技术从多种角度对大模型的资源消耗作出优化,大模型部署框架整合上述技术,并结合目标部署环境提供系统级资源优化能力和友好用户接口.

    图  3  大模型边缘推理流程
    Figure  3.  Process of large model inference for edge

    现有主流大模型边缘化关键技术可概括为大模型压缩技术与大模型推理加速技术,我们将在后续与大模型边缘部署框架一同详细分析.

    一般神经网络的压缩技术可以分为参数剪枝、知识蒸馏、模型量化、低秩分解4个方向,目的是减少模型计算与存储等资源的消耗. 然而与一般神经网络不同的是,大模型具有架构庞大,算力需求高、访存量多、泛化能力强等特点,使得一般性的模型压缩方法在大模型上效率或效果不佳[44]. 为了应对这些挑战,许多大模型专用的模型压缩方法被提出,我们在图4展示了这些工作不同方向的技术概况,在表3详细展示了上述几种方向的分类、优化目标以及近期相关工作.

    图  4  大模型压缩技术概况
    Figure  4.  Overview of large model compression techniques
    表  3  大模型压缩关键技术相关工作分类
    Table  3.  Classification of Related Work for Large Model Compression
    参数剪枝 结构化剪枝 剪除冗余结构,降低模型大小和计算复杂度 文献[4548]
    非结构
    化剪枝
    实现权重稀疏化,减小模型内存使用量和计算量,依赖特定软硬件加速模型张量运算 文献[4951]
    知识蒸馏 白盒蒸馏 产生特定领域下的小模型,减少模型尺寸和计算量,同时保持模型在特定任务下的性能 文献[5260]
    黑盒蒸馏 在不访问大模型内部结构的情况下,实现蒸馏过程,产生特定领域的小模型 文献[6170]
    模型量化 训练后
    量化
    降低模型存储大小、节省存储、内存、带宽、计算量,同时保持模型精度 文献[7181]
    量化感
    知训练
    降低模型量化误差,在降低模型存储、内存、带宽、计算量的前提下,进一步保持模型精度 文献[8286]
    低秩分解 减少模型参数量,实现推理加速 文献[8791]
    “—”表示没有更细致的类别划分.
    下载: 导出CSV 
    | 显示表格

    1)参数剪枝

    参数剪枝技术通过移除模型的冗余结构或权重压缩模型,按修剪粒度区分,现有大模型剪枝技术可分为结构化剪枝和非结构化剪枝. 结构化剪枝移除大模型参数矩阵多个通道或块结构等结构化组成部分,部分研究工作[45-48]多于微调、量化、甚至训练相结合以降低精度损失、提高压缩效果. 非结构化剪枝不考虑大模型内部结构,通过神经元级别的删减使模型权重矩阵产生稀疏性,依赖特殊的软硬件实现张量运算加速[92]. 一般的神经网络剪枝技术在剪枝后利用微调恢复模型的性能,然而由于大模型全参数微调的成本巨大,当前的大模型剪枝通常舍弃微调[50-51]步骤,或者结合参数高效微调[45,48]低成本. 由于剪枝无可避免地损失了模型性能,并且大模型参数全量微调对硬件设施算力的要求极高,此类方法应用在大模型上的实用性仍需进一步优化.

    2)知识蒸馏

    知识蒸馏技术将大模型作为教师模型,利用教师模型的监督信息训练一个小型学生模型,针对大模型的现有研究可分类为白盒蒸馏和黑盒蒸馏2种. 白盒蒸馏方法同时利用大模型的内部信息和输出训练学生模型,黑盒蒸馏方法假设大模型的内部结构不可见,仅利用教师模型的输出训练学生模. 与一般神经网络的知识蒸馏不同,大模型蒸馏更关注知识的转移,而不是架构上的压缩[93]. 当大模型参数量达到一定程度后会表现出“涌现能力”,即处理复杂任务的表现惊人,利用该特点可以帮助小模型学习应对复杂任务,进而催生了基于思维链(chain-of-thought,CoT)、上下文学习(in-context learning,ICL)、指令遵循(instruction-following,IF)的黑盒蒸馏方法. 大模型的知识蒸馏通常用于将某一领域知识提炼到边缘设备可承载的小模型,用于特定的下游任务[55]. 小型模型的知识储量和表达能力相较大型模型具有较大差距,使用者需要在模型能力与模型尺寸之间做出进一步权衡.

    3)模型量化

    模型量化方法将权重或激活值的浮点数表示形式转换为更低精度的数值表示形式,在尽量缩减误差的同时充分利用数值表示空间,主流的量化方案包括训练后量化(post-training quantization,PTQ)和量化感知训练(quantization-aware training,QAT)2种. PTQ直接转换训练后的模型权重为低精度格式,无需修改模型架构或重新训练,相比QAT具有简单高效的优势[94],而QAT将量化过程融入模型的训练过程,使模型适应低精度的存储格式,做到更低的精度损失. QAT的重训练方法对一般神经网络的精度恢复的通常具有明显效果,但执行大模型的训练成本非常昂贵,因此PTQ成为了大模型量化技术的主流[71],该部分将会在后文展开论述.

    4)低秩分解

    低秩分解利用模型权重矩阵的低秩特性,将矩阵近似分解为2个或多个更小的矩阵,以节省参数量. 该技术已被广泛用于大模型高效参数微调[95],但是最近的工作表明这种技术也可以用于模型压缩[87-89],且具有出色的压缩效果. 例如TensorGPT[89]使用低秩张量压缩嵌入层,降低了LLM的空间复杂度并使其可在边缘设备上使用. LoSparse[88]通过低秩矩阵和稀疏矩阵的和来近似权重矩阵,结合了低秩近似和结构化剪枝的有点,实现了大量内存的节省.

    上述4种大模型压缩技术为大模型边缘部署提供了极大的便利,其中模型量化中的PTQ量化技术因为成本低、精度损失小、效率高而被广泛采用,已经成为大模型边缘部署和应用的重要优化技术. PTQ量化技术在大模型上的应用包含仅权重量化和权重激活值量化2个主流方向,图4(c)展示了两者的区别.

    1)仅权重量化

    为了弥补量化带来的误差,当前的大模型量化方案可分为3种,分别为离群值分离[77]、2阶近似补偿[78]、分布平滑[79]. 这几种方法并不互斥,例如:SpQR[80]对GPTQ[78]的量化方案提出了进一步的优化策略,分离离群值并采用稀疏矩阵存储,对非离群值权重采用混合精度的双层量化策略,进一步降低了大模型量化后模型性能损失;AWQ[71]基于LLM权重重要性不平衡的观点,按照激活值筛选重要权重,并引入平滑因子以减小重要权重的量化误差,最终实现了适用于多种大模型出色量化方案;OWQ[81]理论分析了激活值的离群值对权重量化误差的放大效应,在AWQ基础上引入了权重矩阵的混合精度量化方案.

    2)权重激活值量化

    权重激活值量化同时量化权重和激活值,仅权重量化的优化技术同样也可以用于激活值. 例如:ZeroQuant[76]提出了一种细粒度的硬件友好量化方案,对权重和激活值分别采用不同的量化粒度,并采用逐层知识蒸馏的方法缓解量化后精度损失;SmoothQuant[79]通过平滑激活值分布,将激活值量化的难度转移到模型权重量化上,在此基础上实现了大模型的W8A8量化方案;Outlier Suppression+[74]在Outlier Suppression[73]的基础上,结合离群值非对称分布且主要集中在特定通道的特征,通过通道级转换和缩放以缓解非对称离群值引起的误差;OliVe[75]采用离群值-受害者对量化,考虑到离群值相比正常值重要性更高,过低硬件开销的方法处理局部离群值;QLLM[96]提出了一种自适应通道重组方法,以有效处理激活值中的离群值,并利用校准数据来抵消量化误差;FPTQ[72]设计了一种新颖的W4A8后训练量化方法,将W8A8和W4A16的优势结合起来,并将细粒度的权重量化与逐层激活量化策略相结合,进一步保持模型的原始性能.

    大模型推理加速是一系列不修改模型权重情况下优化模型推理效率的算法和技术,其中一些研究由于效果显著已经被广泛应用在模型部署流程中,如KV(key-value)缓存、推测解码等. 根据优化层级的不同,我们将这些研究工作分类为模型层面的优化与系统层面的优化2部分,并在表4中展示了与大模型推理加速相关的研究分类及相关工作.

    表  4  大模型推理加速技术相关工作分类
    Table  4.  Classification of Related Work for Large Model Inference Acceleration Technology
    优化
    层次
    类别 目的 相关工作
    推理算法优化 KV缓存 利用缓存避免注意力的重复计算,牺牲内存提高推理速度 文献[97102]
    早期退出 提前终止或跳过不必要的计算,降低平均推理时延 文献[103110]
    高效提
    示词
    压缩或裁剪提示词,在长上下文场景下减少大模型推理计算量和成本 文献[111115]
    推测解码 避免自回归算法带来的顺序依赖性,提高模型并行能力和推理速度. 文献[116122]
    系统效率优化 算子优化 充分利用硬件加速能力,减少冗余计算 文献[123129]
    稀疏性
    加速
    减少冗余计算、冗余内存加载 文献[8, 130133]
    下载: 导出CSV 
    | 显示表格

    该部分包含KV缓存、早期退出、高效提示词、推测解码4个方向. 图5展示了4种方法的示意图.

    图  5  大模型推理算法优化概况
    Figure  5.  Overview of algorithm optimization for large model inference

    1)KV缓存

    尽可能减少键值对的重复计算能够有效提高大模型推理效率,KV缓存通过在生成过程中缓存这些张量,从而避免每个生成步骤中重新计算过去的Token的键值. 然而KV缓存随着序列和批次大小而线性增长,使得内存或显存资源面临短缺,为此部分研究[97-100]通过约束缓存数量、丢弃不必要的缓存项,以摆脱缓存长度的不可预测性. KV缓存与量化结合也是一种节省内存的方法,例如:KVQuant[101]将KV缓存视为激活值,并应用量化技术进行低精度压缩,实现了超长上下文长度的LLM推理. 此外高效的内存管理策略对KV缓存的效率同样也有很大影响;PagedAttention[102]受虚拟内存和分页机制启发,提出了一种高效的注意力算法. 这种方法对KV缓存进行分页内存管理,使得非连续存储变得高效,并减少了内部和外部存储的碎片化.

    2)早期退出

    早期推理是一种条件计算方法,允许不同样本在不同层中提前结束计算,在推理速度和准确性之间取得良好的平衡. 在逐Token生成的自回归大模型上,现有研究多从Token级别提出早退策略[103],并研究了多种退出条件[105-110]. 此外部分研究[103-104]更进一步,不同Token可以动态地跳过中间特定层,而不仅仅局限于早期层的提前退出. 然而早退改变了模型内部结构,因此需要重新训练或微调,这对于边缘侧设备来说可能是难以接受的.

    3)高效提示词

    将提示词进行压缩或裁剪可以有效减少大模型推理的计算量和成本,尤其是长上下文场景. 近期研究工作中,LLMZip[111]使用7B参数量的Llama模型作为预测器,并与无损压缩方案结合,取得了较高的文本压缩率. AutoCompressors[112]将预训练的大模型作为压缩器,能够生成长文本的摘要向量,在提高准确性的同时降低推理成本. Selective Context[113]从信息论的角度出发,通过识别和修剪输入上下文中的冗余内容,使输入更加紧凑,从而提高LLM的推理效率. LLMLingua[114]基于小型LLM模型,利用压缩与重排实现了在几乎无损的情况下高达20倍的压缩率. LongLLMLingua[115]更进一步,提出了基于问题的文档压缩策略,面向长上下文场景下实现提示词高效压缩与推理加速.

    4)推测解码

    自回归模型的顺序依赖性[116]使得现有大模型无法充分利用现代加速器能力,导致效率低下,为了摆脱这种依赖性,文献[117]首先提出了推测解码方法,通过使用较小的辅助模型自回归地生成候选序列,较大的主模型通过一次前馈传播判断候选序列中Token的正确性并予以纠正. SpecInfer[118]利用多个小型辅助模型,以及一种基于树的推测与Token验证机制,大大降低了推理的端到端延迟. Medusa[119] 在LLM的最后隐藏状态之上引入了多个头,无需引入辅助模型,能够并行预测多个后续Token. Lookahead[116]将自回归解码视为求解非线性方程并采用经典雅可比迭代方法进行并行解码,同样也无需辅助模型. EAGLE[120]根据原始模型中间层特征序列预测,使用小型自回归头在特征级别推断下一个特征,通过标记树实现更高的效率. LLMCad[121]将推测解码技术推向边缘侧设备,在物联网设备和智能手机上大幅度提高了LLM生成速度.

    另外,在大模型推理加速领域,从处理大语言模型的策略转向视觉大模型面对的是一个共通的挑战——如何在保证模型性能的同时减少计算资源消耗[134]. 尽管语言模型和视觉模型在数据处理和模型结构上存在差异,但加速技术的目标一致,即提高实际应用中的推理速度和效率. MuE[135]通过将图像和文本模态在编码器中分解,根据模态灵活跳过不同的层,实现多次早期退出,推动推理效率的同时最小化性能下降. SAMConvex[136]提出一个粗到细的离散优化方法来提高CT图像配准的效率,通过计算SAM嵌入特征的内积来构建多尺度6D成本体积,以此提高模型在特定任务上的执行速度和准确性. MaskCLIP[137]通过优化推理框架,将预训练的CLIP模型直接应用于像素级别的预测,而无需专门的注释或复杂的微调过程,实现对未见类别和概念的高效分割. CLIP-Forge[138]采用2阶段训练过程,使用未标记的形状数据集和CLIP模型,从文本描述中以零样本的方式直接生成3维形状,无需在形状-文本配对标签上进行训练,同时采用完全前馈方法,避免了昂贵的推理时间,显著提高了推理阶段的效率.

    1)算子优化

    基于Transformer[139]架构的大模型核心算子包括注意力算子,算子效率优化通过利用软硬件资源,减少计算量和内存访问,或者利用内核融合等方法减小启动开销等,对于大模型在特定设备上推理具有显著优化效果. 对于GPU平台的大模型推理,FlashAttention[123]提出了一种利用GPU上的高速SRAM(static random-access memory)的分块注意力算法,使用内核融合避免多次拷贝内存带来的通信开销. FlashAttention-2[124]在原有基础上通过优化GPU线程之间的工作分配减少共享内存的读写操作. 它进一步通过在线程块和线程束之间分配注意力计算任务,增加了并行度以提高了占用率和效率. FlashDecoding[125]引入了一个沿着键/值序列长度的并行化维度进行规约,即使在小批量大小和长上下文的情况下也能充分利用GPU. FlashDecoding++[126]引入了一个基于统一最大值的异步softmax来消除同步开销以提高了注意力计算效率. 它通过双缓冲优化了平面GEMM(general matrix multiplication)操作,提高了计算利用率并减少了内存延迟. 此外FlashDecoding++实现了一种启发式数据流,能够动态适应硬件资源. 对于CPU平台的大模型推理,现有研究[122]多设计高度优化的GEMM内核,利用低精度运算和SIMD(single instruction multiple data)指令集的优势加速大模型算子的计算. 此外,机器学习编译技术通常将算子融合和优化作为优化目标之一,深度学习编译器[127-129]已被广泛应用在许多大模型部署框架中,对于减少冗余计算,利用边缘硬件环境进行加速具有重要意义.

    2)稀疏性加速

    近期研究表明,大模型在推理时的激活值具有显著的稀疏性,这为大模型推理效率的优化带来了诸多启发. 基于上述观点,文献[130]提出了“上下文稀疏性假设”,使用预测器根据上一层激活值动态预测下一层需要激活的神经元或注意力头,通过舍弃不必要计算达到模型加速效果. 除了利用稀疏性减少计算量之外,另一部分研究通过该观点实现高效的内存卸载策略. 内存卸载是一种将权重“卸载”到外部存储,在需要时加载部分权重到内存中,使得边缘设备可以运行超过其内存大小的模型. 但是频繁的内存交换会导致显著的通信开销,为此高效的内存卸载策略是一个重要的研究方向. FlexGen[131]开发了一种基于线性规划的搜索算法优化吞吐量,以达到最优的卸载策略,并一步将权重和注意力缓存压缩至4 b,从而显着提高LLM推理时最大吞吐量. PowerInfer[132]发现大模型推理表现出高度的局部性,一些被称为“热激活神经元”的神经元被频繁激活. 基于这一观察,PowerInfer设计了神经元感知卸载策略和推理引擎,利用显存和内存存储权重,为显存预加载频繁激活的神经元的权重,而不活跃的神经元的权重则保留在内存中. 针对如何在有限内存设备上设计内存卸载策略的问题,LLM in a flash[8]提出了一种基于DRAM(dynamic random-access memory)和闪存的内存卸载策略,将LLM的权重存储在闪存中,而将注意力缓存存储在DRAM中,利用滑动窗口缓存过去激活的标记,静态内存预分配以最大限度减少加载延迟,从而在有限的内存设备上实现LLM推理. EdgeMoE[133]则开发了是专门为混合专家模型(mixture of experts,MoE)设计的内存卸载策略,利用MoE架构的稀疏性,非专家权重存于内存,专家权重仅在激活时从外部存储加载以实现边缘设备的内存节省.

    大模型的部署框架通常集合多种模型优化技术,并提供了模型的系统级调度或其他功能. 目前主流大模型部署框架[140-143]虽然提供了设备端部署的能力,但倾向于关注大模型的服务端推理和服务能力. 边缘侧的设备通常不具备或具有有限的高性能的神经网络加速芯片,算力和存储相比云端具有显著差异,众多适用于边缘侧的大模型推理引擎和框架因此诞生,并为大模型在边缘侧的开发与应用提供便利.

    表5展示了现有适用于边缘侧的开源大模型推理框架和引擎,分为通用与专用2部分. 通用框架指的是通用的边缘侧深度学习推理框架,如TFLite[146],TorchExec[147],MNN[148],NCNN[149],这些引擎通常不涉及对大模型架构的专门优化,但是其通用性和灵活性使得它们可以适用于多种模型. 另一类推理引擎是专门为大模型推理设计的专用框架,不同于通用的机器学习边缘部署框架[144],它们通常根据大模型的特点提供专用的加速方案. 其中部分框架具有跨架构平台的部署能力,如支持在Intel,ARM等芯片架构上运行,而另一些框架则为专门的边缘计算平台设计. 此外表格显示模型量化作为一种低成本高成效的优化方案,受到大多数边缘部署框架支持,或提供了量化后模型的推理能力. 部分框架,如MLC-LLM,利用了机器学习编译等技术,进一步减少端侧大模型推理的计算冗余.

    表  5  大模型边缘部署框架总结
    Table  5.  Summary of Edge Deployment Frameworks for Large Models
    适用性 框架 特点 量化 多模
    型支持
    跨平台支持
    通用 TFLite[146] 在移动设备、嵌入式设备和loT设备上运行模型,支持多种开发语言和硬件加速
    TorchExec[147] PyTorch平台下边缘部署工具,兼容多种计算平台并具有轻量级运行时
    MNN[148] 轻量级的深度神经网络引擎,对模型格式、算子、设备、操作系统具有广泛的兼容性
    NCNN[149] 适用于移动端的神经网络推理框架,无第三方依赖
    专用 MLC-LLM[150] 使用机器学习编译技术加速推理
    llama.cpp[151] C/C++中LLM推理
    llama2.c[152] 纯C语言环境执行Llama推理
    Mllm[153] 适用于移动和边缘设备的多模态推理引擎
    Intel Extension for Transformers[154] 在英特尔平台上提供LLM高效推理
    InferLLM[155] 轻量级LLM推理框架,可部署至移动设备
    TinyChatEngine[156] 支持多种设备上的多种量化方法
    NanoLLM[157] 为NVIDIA Jetson设计的轻量级LLM推理引擎
    下载: 导出CSV 
    | 显示表格

    边缘侧的大模型部署框架仍然处于发展阶段,许多框架提供的能力十分有限,适用于边缘侧的大模型的部署框架作为关系大模型能否在边缘侧落地的重要因素,其可用性和多样性仍然有待提高. 除上述框架之外,部分工作如PoweInfer[132],FlexGen[131],DeepSparse[145]支持消费级PC计算设备上的大语言模型推理,但是这些推理引擎要求设备具备一定的算力水平,其有效性未在边缘侧设备上进行进一步实验. 但是由于其对LLM推理的提出了多种优化技术与思想,这些工作对推动边缘侧大模型部署仍有较大的参考价值.

    本文从边缘智能出发,描述了边缘智能下大模型的背景和发展. 着重从大模型推理和训练2个阶段涉及到的关键技术进行了归纳总结. 截至目前,边缘智能下的大模型发展还处于初期阶段,结合边缘智能的特点,目前还存在着以下几个值得关注和讨论的方向:

    1)新型大模型架构. 目前Transformer架构在预训练大模型中已经占据主导地位,但是其使用的自注意力机制具有平方级别的计算复杂度,使得大模型训练和推理仍然面临成本高、效率低的问题,这一挑战在长文本情景下尤为凸显. 为了缓解Transfromer架构带来的训练和推理时的资源需求,此前部分研究工作提出了诸多Transformer变体,针对注意力机制[158-160]或前馈网络[161-163]进行了大量研究并展现出巨大潜力. 另一研究方向则提出了新的模型架构以取代Transformer,如Mamba[164],RWKV[165],RetNet[166]等. 尽管这些架构在性能和效率方面具有不凡的竞争力,但是以这些架构为基础的大模型数量有限,新架构在实践中相比Transformer架构是否具有显著优势,以及模型架构是否存在进一步优化空间仍然有待探索. 新型高效架构的探索有望成为大模型领域的重要突破,因此具有较大的研究价值,特别是具有硬件或系统级优化的体系结构,有望让边缘侧大模型的应用成本进一步降低.

    2)边缘侧设备资源受限. 大模型的训练与推理需要消耗大量计算、内存资源,这种消耗对于边缘设备来说可能是无法承担的. 传统的边缘侧深度学习模型部署通常结合轻量化模型结构、模型压缩等技术,但是此类方法仍难以满足大模型在部署到边缘侧时对各种资源的需求. 针对此问题,研究更先进的大模型的压缩与加速技术、针对边缘设备的硬件加速器和专门的推理引擎均可以改善大模型在资源受限环境中的微调或推理效率,有望进一步降低大模型在边缘侧部署的成本与压力. 同时,现有大模型边缘部署方案通常是将模型完整部署到边缘环境,云边协同作为一种能够平衡利用云端与边端资源的协作模式,如何与现有大模型结合,以实现更高效、更稳定的边缘侧推理方案,同样也是一个前景广阔的研究方向.

    3)边缘资源与需求动态性. 相比于云计算同质化的计算资源,边缘节点通常具有设备异构性、网络状况多变、存储计算资源差异等特点,使得现有大模型边缘侧微调与推理面临可移植性和效率问题. 同时边缘侧场景下用户对模型推理时延、精度等指标的需求也各不相同,使得大模型难以在边缘环境提供稳定一致的服务. 通过对边缘侧动态场景进行建模,确立适应动态资源及需求变化的调度机制、协同化策略、自适应算法等方案,是值得进一步关注的问题.

    4)大模型联邦微调的异构性问题. 复杂动态环境下智能感知中存在“昆虫纲”悖论难题[167-168],包含感、算、存、传等资源差异性,环境的复杂性与动态性等挑战. 带来感知计算不实时、效果差、难统一等问题. 具体来讲在边缘侧联合众多边缘设备资源来进行大模型联邦微调训练是一种普遍认可的应对大模型定制化需求的可行手段,但在多个边缘设备间对大模型进行联邦微调训练过程中,面对大模型以GB为单位的庞大参数,资源受限的边缘设备难以支持其性能需求[83],同时在客户端间大量的参数传递也给通信带来了巨大压力[169],导致微调训练效率低下;另一方面,在大模型联邦微调训练中普遍存在的设备异构与数据异构问题更加凸显,严重影响了训练效果和收敛速度[170-171]. 因此如何在边缘侧资源受限,通信压力大,设备异构、数据异构普遍存在的条件下进行大模型联邦微调训练,还需进行针对性的深入研究.

    5)隐私问题. 随着模型规模的不断扩大,所需的训练数据量也急剧增加,这导致用户隐私泄露的风险加大. 在模型训练过程中,如果不采取适当的保护措施,用户的敏感信息可能会被泄露给攻击者,从而引发严重的隐私安全问题. 同时大模型本身也可能成为攻击的目标. 攻击者可能会利用模型的漏洞或弱点,对模型进行攻击,从而获取到模型的训练数据、模型结构或推理结果等敏感信息. 这种攻击方式不仅会对用户的隐私造成威胁,还会对模型的可用性和可靠性产生严重影响.

    6)大模型伦理的规范化. 随着大模型逐渐深入边缘侧并应用于各种下游任务,大模型本身的价值观和伦理道德倾向对人类社会的潜在风险愈发显著,同时模型本身的随机性和不可解释性也加剧了大模型伦理问题的不可控性. 现有大模型伦理道德规范化手段主要有训练前数据过滤、输出矫正、基于人类反馈的强化学习等,均可以在一定程度上将大模型价值观与人类对齐,但是对齐效果与真实人类社会伦理标准仍然存在巨大差距,未真正实现AI与人类普适道德价值的深度对齐[172]. 大模型的伦理规范问题是全人类社会应当共同应对的挑战,研究更加有效人工智能伦理规范方法和框架,是大模型未来重要的研究方向.

    边缘智能下的大模型训练和推理具有极大的潜在应用价值,目前的研究还都尚处于初期阶段,许多问题都没有明确的统一和规范,值得我们重点研究. 本文首先对边缘智能和大模型的发展以及背景进行了简要回顾,对训练和推理过程中涉及到的关键技术进行了归纳总结,重点从边缘智能角度分析了大模型边缘推理和训练存在的挑战和发展方向. 总的来看,在边缘侧进行大模型推理和训练具有极大的应用价值和发展空间,我们未来的研究工作重点将放在动态场景下的大模型推理和训练方面.

    作者贡献声明:王睿提出了论文框架、文献调研路线、指导论文写作并修改论文;张留洋和高志涌负责文献调研、撰写及修改部分论文;姜彤雲补充完善论文.

  • 图  1   基于双端联合学习的多视图聚类方法示意图

    Figure  1.   Schematic diagram of multi-view clustering method based on double-ended joint learning

    图  2   DLMC与其他5个对比方法在D5上的可视化结果

    Figure  2.   Visualization of DLMC and 5 other comparison methods on the D5

    图  3   锚点数目一致但不对齐对DLMC的影响

    Figure  3.   The impact of consistent but misaligned anchor numbers on DLMC

    图  4   DLMC在6个数据集上的收敛曲线

    Figure  4.   Convergence curves of DLMC on 6 datasets

    图  5   所有对比方法在不同数据集上的运行时间

    Figure  5.   The run time of all compared methods on different datasets

    表  1   本文所用所有方法缩写名称总结

    Table  1   A summary of All Abbreviations Method Names Used in This Paper

    大规模多视图子空间聚类(large-scale multi-view subspace clustering,LMVSC)[4]
    可扩展且无需参数的多视图图聚类(scalable and parameter-free multi-view graph clustering,SFMC)[6]
    基于张量二部图学习的多视图聚类(tensorized bipartite graph learning for multi-view clustering,TBGL)[7]
    具有多个锚图的高效多视图K-means聚类(efficient multi-view K-means clustering method with multiple anchor graphs,EMKMC)[8]
    基于多二部图的可扩展多视图聚类(scalable multi-view clustering via many bipartite graphs,SMCMB)[9]
    超可扩展的集成聚类(ultra-scalable ensemble clustering,U-SENC)[10]
    面向可扩展多视图聚类的灵活多样锚图融合(flexible and diverse anchor graph fusion for scalable multi-view clustering,FDAGF)[12]
    通过集成方法实现快速多视图聚类(fast multi-view clustering via ensembles,FastMICE)[14]
    单遍多视图聚类(one-pass multi-view clustering,OPMC)[16]
    多视图结构图学习(multi-view structured graph learning,MSGL)[17]
    快速且无需参数的多视图聚类(fast parameter-free multi-view subspace clustering,FPMVS)[18]
    高效单遍多视图子空间聚类(efficient one-pass multi-view subspace clustering,EOMSC)[19]
    统一且离散的二部图学习(Unified and discrete bipartite graph learning,UDBGL)[20]
    高效单遍的后融合多视图聚类(efficient one-pass late fusion multi-view Clustering,OPLFMVC)[21]
    通过非负正交分解的快速多视图聚类模型(fast multi-view clustering model via nonnegative and orthogonal factorization,FMCNOF)[22]
    下载: 导出CSV

    表  2   相关方法属性对比

    Table  2   Comparison of Related Works

    对比方法 年份 锚点集构建学习 锚点图构建学习 聚类器构建学习
    视图独立 视图共享 视图一致 视图独立 视图共享 视图一致 视图独立 视图共享 视图一致
    LMVSC[4] 2020
    SFMC[6] 2022
    TBGL[7] 2023
    SMCMB[9] 2024
    U-SENC[10] 2020
    FDAGF[12] 2023
    FastMICE[14] 2023
    OPMC[16] 2021
    MSGL[17] 2022
    FPMVS[18] 2021
    EOMSC[19] 2022
    UDBGL[20] 2024
    OPLFMVC[21] 2021
    DLMC(本文)
    下载: 导出CSV

    表  3   数据集描述

    Table  3   Dataset Description

    编号 数据集 样本/个 视图 类别 维度
    D1 NEWSGROUPS 500 3 5 2 000, 2 000, 2 000
    D2 BBCSPORT 544 2 5 3 183, 3 203
    D3 WEBKB 1 051 2 2 1 840, 3 000
    D4 REUTERS 1 200 5 6 2 000, 2 000, 2 000, 2 000, 2 000
    D5 100LEAVES 1 600 3 100 64, 64, 64
    D6 BDGP 2 500 3 5 1 000, 500, 250
    D7 CCV 6 773 3 20 20, 20, 20
    D8 MNIST 10 000 3 10 30, 9, 30
    D9 ALOI100 10 800 4 100 77, 13, 64, 125
    D10 AWA 30 475 6 50 2 688, 2 000, 252, 2 000, 2 000, 2 000
    D11 YTF10 38 654 4 10 944, 576, 512, 640
    D12 YOUTUBEFACE 101 499 5 31 64, 512, 64, 647, 838
    D13 ALOI1000 110 250 4 1 000 125, 77, 113, 64
    下载: 导出CSV

    表  4   对应13个数据集的4个平衡性指标值

    Table  4   Corresponds to 4 Balance Index Values for 13 Datasets

    编号 NE SDCS RME Max/Min
    D1 1.00 0.00 1.00 1.00
    D2 0.94 54.36 0.56 3.16
    D3 0.76 417.90 0.44 3.57
    D4 1.00 0.00 1.00 1.00
    D5 1.00 0.00 1.00 1.00
    D6 1.00 0.00 1.00 1.00
    D7 0.98 134.24 0.31 6.73
    D8 1.00 0.00 1.00 1.00
    D9 1.00 0.00 1.00 1.00
    D10 0.98 253.59 0.15 12.70
    D11 0.98 1 237.17 0.70 2.25
    D12 0.89 4 432.03 0.46 18.10
    D13 1.00 1.30 0.98 1.03
    下载: 导出CSV

    表  5   DLMC与所有对比方法在13个基准数据集上的ACC值

    Table  5   DLMC and All Comparison Methods on 13 Benchmark Datasets for ACC Values %

    对比方法 D1 D2 D3 D4 D5 D6 D7 D8 D9 D10 D11 D12 D13
    U-SENC 93.66 93.57 83.54 23.93 80.93 47.00 17.74 69.84 68.22 7.85 78.38 12.76 39.64
    LMVSC 82.40 94.30 88.20 43.42 64.38 49.28 16.86 68.61 56.61 6.73 69.12 12.77 42.19
    OPMC 83.74 76.54 92.40 43.67 54.70 45.23 15.82 56.38 49.75 9.34 69.23 15.21 23.62
    FPMVS 72.30 40.63 94.96 44.33 33.01 42.59 24.32 81.64 31.53 8.88 71.49 23.35 -
    OPLFMVC 66.40 80.88 94.10 30.42 80.25 52.04 17.70 72.57 72.27 8.51 73.41 19.98 49.75
    EOMSC 68.60 38.42 89.44 45.92 39.88 42.08 22.52 64.91 31.63 8.74 81.19 26.66 -
    MSGL 51.60 77.57 77.35 31.83 14.13 38.64 14.81 44.49 13.82 6.96 68.08 26.63 -
    SFMC 76.20 70.22 78.21 23.92 70.25 23.28 14.53 66.86 67.20 3.90 68.47 N/A N/A
    EMKMC 87.40 91.18 93.34 41.33 45.56 49.88 15.86 64.95 45.54 6.00 74.23 21.60 28.51
    TBGL 32.20 74.26 80.59 24.92 63.06 20.08 10.75 75.48 65.44 N/A N/A N/A N/A
    FDAGF 93.60 86.76 94.58 52.67 60.19 54.08 19.99 67.24 53.51 7.44 82.35 15.12 42.11
    FastMICE 70.96 94.05 94.90 28.68 83.53 43.45 20.10 78.71 75.12 8.68 77.28 20.79 47.74
    UDBGL 51.60 49.63 91.82 31.17 63.50 39.44 20.74 70.99 58.02 8.36 60.35 24.85 -
    SMCMB 89.20 92.87 96.67 51.50 83.00 49.68 19.92 75.41 75.57 9.01 81.86 23.15 -
    DLMC(本文) 94.40 95.59 98.19 57.83 89.69 57.68 24.46 82.28 77.35 9.89 82.83 30.30 58.42
    加粗字体表示最佳结果;‘N/A’表示由于内存不足导致算法在该数据集上无法运行;‘-’表示由于运行时间过长(超48h未完成)而终止了算法的运行.
    下载: 导出CSV

    表  6   DLMC 与所有对比方法在 13 个基准数据集上的 NMI 值

    Table  6   DLMC and All Comparison Methods on 13 Benchmark Datasets for NMI Values %

    对比方法 D1 D2 D3 D4 D5 D6 D7 D8 D9 D10 D11 D12 D13
    U-SENC 82.49 81.46 18.61 9.71 90.53 27.45 13.71 66.40 77.98 9.14 82.81 11.45 67.14
    LMVSC 60.54 83.92 33.49 28.07 83.25 28.01 11.87 63.02 74.95 7.35 74.43 5.27 73.34
    OPMC 73.57 66.87 62.24 25.85 76.65 25.89 12.88 52.70 68.84 11.77 74.13 13.05 58.78
    FPMVS 57.06 10.37 66.69 20.64 61.90 19.73 18.59 67.78 55.51 9.11 76.86 21.87 -
    OPLFMVC 53.71 66.36 59.47 15.02 90.86 30.47 13.38 64.48 83.78 7.72 76.21 17.62 77.81
    EOMSC 60.42 17.03 36.93 24.26 66.24 14.45 15.36 56.16 55.64 8.94 81.81 9.64 -
    MSGL 37.57 61.26 16.33 15.18 41.34 11.48 8.67 41.80 36.70 7.64 73.44 0.07 -
    SFMC 70.79 60.66 0.28 11.28 82.70 4.26 8.13 61.89 69.21 0.16 76.35 N/A N/A
    EMKMC 69.13 78.13 58.50 18.13 70.29 27.45 11.06 59.43 64.74 5.03 75.88 18.82 63.50
    TBGL 9.35 51.82 7.37 11.30 70.50 0.16 2.05 60.93 68.80 N/A N/A N/A N/A
    FDAGF 82.71 77.22 60.11 34.57 81.13 35.35 16.82 60.02 70.86 6.91 83.36 12.43 71.79
    FastMICE 52.82 85.43 63.36 15.31 93.45 22.20 15.44 68.44 83.36 10.34 81.58 17.37 73.25
    UDBGL 26.28 19.40 52.38 10.29 78.80 16.85 16.08 61.21 68.58 8.92 67.40 16.47 -
    SMCMB 74.07 84.18 73.15 29.51 92.13 29.70 15.53 63.67 83.20 10.34 85.46 19.56 -
    DLMC(本文) 83.49 86.57 82.81 35.35 95.78 36.48 18.94 70.13 88.54 11.51 85.59 25.74 80.35
    加粗字体表示最佳结果;‘N/A’表示由于内存不足导致算法在该数据集上无法运行;‘-’表示由于运行时间过长(超48h未完成)而终止了算法的运行.
    下载: 导出CSV

    表  7   DLMC与所有对比方法在13个基准数据集上的ARI值

    Table  7   DLMC and All Comparison Methods on 13 Benchmark Datasets for ARI Values %

    对比方法 D1 D2 D3 D4 D5 D6 D7 D8 D9 D10 D11 D12 D13
    U-SENC 84.74 83.58 29.10 1.96 73.95 21.63 5.41 57.35 55.87 1.78 72.31 1.82 26.65
    LMVSC 59.83 84.62 47.85 17.97 54.33 24.74 5.05 52.35 38.97 1.11 60.92 0.96 24.93
    OPMC 72.41 64.46 74.47 17.71 44.48 20.61 4.20 41.10 44.95 2.49 60.83 2.22 11.81
    FPMVS 55.58 10.28 79.40 16.91 19.96 15.91 8.52 64.84 16.07 2.77 65.04 5.83 -
    OPLFMVC 46.68 68.99 75.57 4.22 74.68 29.59 4.90 56.34 65.05 2.01 66.69 3.41 36.01
    EOMSC 56.34 10.04 56.49 18.41 20.22 9.79 7.09 49.15 16.09 2.53 71.37 2.36 -
    MSGL 28.16 56.12 27.45 9.12 2.40 8.64 2.91 27.76 7.86 1.27 58.42 0.06 -
    SFMC 66.43 51.19 0.49 2.18 40.33 0.62 3.22 45.37 10.44 0.00 58.22 N/A N/A
    EMKMC 70.51 78.77 73.34 13.63 31.55 24.43 3.92 49.33 33.82 0.85 66.49 4.67 17.21
    TBGL 9.32 45.72 12.40 1.90 10.57 0.00 -0.05 56.81 10.40 N/A N/A N/A N/A
    FDAGF 84.62 81.13 76.74 23.13 49.91 29.41 6.70 51.36 30.16 1.09 76.94 1.99 23.24
    FastMICE 42.42 86.32 78.48 5.82 79.96 18.40 6.76 63.11 66.30 2.18 71.00 4.01 33.71
    UDBGL 23.34 24.25 67.93 7.15 41.14 12.55 6.23 53.06 31.90 1.83 51.92 3.35 -
    SMCMB 74.57 87.11 85.82 22.14 77.77 23.31 6.32 56.84 65.40 2.44 77.96 4.94 -
    DLMC(本文) 86.51 89.40 92.03 27.72 87.03 33.53 8.70 66.52 68.66 2.69 79.60 7.29 36.26
    加粗字体表示最佳结果;‘N/A’表示由于内存不足导致算法在该数据集上无法运行;‘-’表示由于运行时间过长(超48h未完成)而终止了算法的运行.
    下载: 导出CSV

    表  8   DLMC与所有对比方法在13个基准数据集上的Purity值 %

    Table  8   DLMC and All Comparison Methods on 13 Benchmark Datasets for Purity Values %

    对比方法 D1 D2 D3 D4 D5 D6 D7 D8 D9 D10 D11 D12 D13
    U-SENC 93.66 93.57 83.54 23.93 80.93 47.00 17.74 69.84 68.22 7.85 78.38 12.76 39.64
    LMVSC 82.40 94.30 88.20 43.42 64.38 49.28 16.86 68.61 56.61 6.73 69.12 12.77 42.19
    OPMC 83.74 76.54 92.40 43.67 54.70 45.23 15.82 56.38 49.75 9.34 69.23 15.21 23.62
    FPMVS 72.30 40.63 94.96 44.33 33.01 42.59 24.32 81.64 31.53 8.88 71.49 23.35 -
    OPLFMVC 66.40 80.88 94.10 30.42 80.25 52.04 17.70 72.57 72.27 8.51 73.41 19.98 49.75
    EOMSC 68.60 38.42 89.44 45.92 39.88 42.08 22.52 64.91 31.63 8.74 81.19 26.66 -
    MSGL 51.60 77.57 77.35 31.83 14.13 38.64 14.81 44.49 13.82 6.96 68.08 26.63 -
    SFMC 76.20 70.22 78.21 23.92 70.25 23.28 14.53 66.86 67.20 3.90 68.47 N/A N/A
    EMKMC 87.40 91.18 93.34 41.33 45.56 49.88 15.86 64.95 45.54 6.00 74.23 21.60 28.51
    TBGL 32.20 74.26 80.59 24.92 63.06 20.08 10.75 75.48 65.44 N/A N/A N/A N/A
    FDAGF 93.60 86.76 94.58 52.67 60.19 54.08 19.99 67.24 53.51 7.44 82.35 15.12 42.11
    FastMICE 70.96 94.05 94.90 28.68 83.53 43.45 20.10 78.71 75.12 8.68 77.28 20.79 47.74
    UDBGL 51.60 49.63 91.82 31.17 63.50 39.44 20.74 70.99 58.02 8.36 60.35 24.85 -
    SMCMB 89.20 92.87 96.67 51.50 83.00 49.68 19.92 75.41 75.57 9.01 81.86 23.15 -
    DLMC(本文) 94.40 95.59 98.19 57.83 89.69 57.68 24.46 82.28 77.35 9.89 82.83 30.30 58.42
    加粗字体表示最佳结果;‘N/A’表示由于内存不足导致算法在该数据集上无法运行;‘-’表示由于运行时间过长(超48h未完成)而终止了算法的运行.
    下载: 导出CSV

    表  9   不同视图下锚点数目一致与不一致对DLMC的影响

    Table  9   The Impact of the Consistency or Inconsistency of the Number of Anchors on DLMC in Different Views

    评价指标 方法 D1 D2 D4 D5 D6 D7 D8
    ACCDLMC0.94400.95590.57830.57680.57680.24460.8228
    DLMC-d0.95800.96880.62830.91380.59280.24940.8350
    NMIDLMC0.83490.86570.35350.36480.36480.18940.7013
    DLMC-d0.87560.89690.40800.96670.38570.20650.7136
    AMIDLMC0.83320.86760.36200.36430.36430.18380.7031
    DLMC-d0.87450.89890.42170.94910.38700.20120.7145
    ARIDLMC0.86510.89400.27720.33530.33530.08700.6652
    DLMC-d0.89720.91790.32670.89470.32840.08840.6824
    PurityDLMC0.94400.95590.57830.59840.59840.26780.8228
    DLMC-d0.95800.96880.62830.93250.59280.27740.8350
    下载: 导出CSV

    表  10   DLMC与6种对比方法在对D6和D7数据集上添加不同噪声后的NMI值

    Table  10   DLMC and Six Comparative Methods’ NMI Value on the D6 and D7 Datasets after the Introduction of Different Noise Levels %

    数据集 USENC OPMC MSGL EMKMC FMICE SMCMB DLMC
    D6 + 10%SP 25.0 ± 9.3 31.5 ± 4.2 25.0 ± 3.5 18.0 ± 11.3 27.1 ± 4.2 19.5 ± 5.3 33.7 ± 3.7
    D6 + 20%SP 22.3 ± 11.5 33.2 ± 3.5 25.9 ± 2.6 16.5 ± 10.7 29.9 ± 6.6 19.7 ± 6.2 28.8 ± 3.0
    D6 + 30%SP 28.8 ± 12.1 31.9 ± 4.8 28.8 ± 1.9 16.8 ± 11.3 26.2 ± 8.1 20.2 ± 5.9 31.4 ± 2.2
    D6 + 40%SP 22.6 ± 11.3 33.1 ± 3.6 30.7 ± 1.9 15.1 ± 7.3 28.7 ± 3.1 20.2 ± 6.0 32.6 ± 3.4
    D6 + 10%GS 19.5 ± 11.9 31.7 ± 3.8 25.7 ± 0.9 16.9 ± 11.5 24.7 ± 6.6 17.8 ± 6.1 27.9 ± 4.3
    D6 + 20%GS 25.9 ± 10.7 32.5 ± 3.4 28.1 ± 1.1 18.2 ± 10.3 25.6 ± 9.1 19.3 ± 7.4 30.1 ± 4.9
    D6 + 30%GS 25.7 ± 13.2 31.4 ± 4.5 25.8 ± 0.7 18.2 ± 10.1 26.1 ± 7.1 20.2 ± 7.5 24.6 ± 3.9
    D6 + 40%GS 25.0 ± 9.3 32.7 ± 3.3 28.8 ± 3.1 18.0 ± 11.3 31.1 ± 3.2 19.1 ± 5.2 29.5 ± 5.4
    D7 + 10%SP 14.7 ± 3.5 13.2 ± 0.5 3.2 ± 3.8 9.3 ± 1.4 15.3 ± 2.1 13.1 ± 2.0 16.7 ± 1.1
    D7 + 20%SP 13.1 ± 3.0 13.2 ± 0.4 5.8 ± 3.9 9.2 ± 0.7 16.1 ± 1.7 13.0 ± 1.8 16.6 ± 1.1
    D7 + 30%SP 12.9 ± 3.5 13.1 ± 0.4 6.5 ± 4.4 9.0 ± 1.2 16.2 ± 0.6 12.8 ± 2.0 16.3 ± 1.0
    D7 + 40%SP 11.4 ± 1.6 13.2 ± 0.4 5.8 ± 3.9 8.9 ± 1.0 15.6 ± 1.1 12.9 ± 1.9 16.2 ± 1.4
    D7 + 10%GS 13.5 ± 3.3 13.2 ± 0.7 5.9 ± 4.0 8.8 ± 1.0 15.2 ± 1.3 12.9 ± 2.0 17.3 ± 1.0
    D7 + 20%GS 11.6 ± 2.9 12.9 ± 0.6 3.1 ± 3.5 9.1 ± 1.2 15.7 ± 1.3 12.9 ± 2.0 17.0 ± 1.1
    D7 + 30%GS 11.6 ± 2.5 13.1 ± 0.6 5.7 ± 3.7 9.3 ± 0.9 16.0 ± 1.1 12.8 ± 1.8 16.6 ± 1.1
    D7 + 40%GS 14.6 ± 4.0 12.7 ± 0.5 3.7 ± 4.7 9.2 ± 1.0 15.4 ± 1.8 13.0 ± 1.8 16.8 ± 1.0
    下载: 导出CSV

    表  11   DLMC与6种对比方法在对D6和D7数据集上添加不同噪声后的ACC值

    Table  11   DLMC and Six Comparative Methods’ ACC Value on the D6 and D7 Datasets after the Introduction of Different Noise Levels %

    数据集 USENC OPMC MSGL EMKMC FMICE SMCMB DLMC
    D6 + 10%SP 46.8 ± 8.2 47.9 ± 3.5 45.5 ± 4.2 41.2 ± 11.3 48.4 ± 3.6 41.0 ± 4.7 54.4 ± 1.8
    D6 + 20%SP 44.2 ± 9.9 49.0 ± 2.7 44.3 ± 3.6 39.2 ± 10.6 47.7 ± 5.6 40.9 ± 5.6 51.4 ± 4.1
    D6 + 30%SP 49.2 ± 9.5 47.7 ± 4.1 50.6 ± 2.8 39.0 ± 11.2 46.9 ± 6.9 41.2 ± 5.7 53.8 ± 2.0
    D6 + 40%SP 43.2 ± 9.6 47.6 ± 4.2 51.2 ± 1.3 37.5 ± 9.2 48.7 ± 3.0 41.8 ± 5.9 52.9 ± 3.0
    D6 + 10%GS 40.6 ± 9.1 47.9 ± 3.1 49.1 ± 1.1 40.4 ± 13.1 45.6 ± 6.1 40.5 ± 5.3 49.0 ± 3.9
    D6 + 20%GS 43.8 ± 8.8 47.2 ± 4.1 50.3 ± 1.4 41.5 ± 11.2 46.6 ± 7.3 41.7 ± 6.2 51.1 ± 4.2
    D6 + 30%GS 44.3 ± 10.9 47.4 ± 3.8 46.9 ± 1.2 41.6 ± 11.5 45.5 ± 5.5 42.2 ± 5.8 50.2 ± 4.8
    D6 + 40%GS 46.8 ± 8.2 48.5 ± 3.4 49.4 ± 3.7 41.2 ± 11.3 50.2 ± 3.9 41.0 ± 4.9 51.0 ± 4.1
    D7 + 10%SP 18.9 ± 3.6 15.8 ± 0.4 11.4 ± 1.5 14.1 ± 1.9 20.2 ± 2.1 17.3 ± 2.2 21.5 ± 0.8
    D7 + 20%SP 17.2 ± 2.7 16.2 ± 0.5 13.0 ± 2.0 14.3 ± 0.8 20.8 ± 1.6 17.5 ± 2.2 21.7 ± 0.7
    D7 + 30%SP 17.0 ± 3.1 16.0 ± 0.5 12.5 ± 1.9 14.2 ± 0.6 20.8 ± 0.7 17.2 ± 2.3 21.0 ± 0.7
    D7 + 40%SP 15.4 ± 1.9 16.0 ± 0.5 13.7 ± 2.5 14.3 ± 1.2 20.0 ± 1.1 17.4 ± 2.3 21.4 ± 1.1
    D7 + 10%GS 18.1 ± 2.8 16.0 ± 0.6 13.7 ± 2.6 14.2 ± 1.1 20.0 ± 1.0 17.4 ± 2.3 22.7 ± 0.6
    D7 + 20%GS 15.8 ± 2.6 15.8 ± 0.6 11.9 ± 2.0 14.5 ± 1.3 20.3 ± 1.3 17.4 ± 2.3 21.7 ± 1.1
    D7 + 30%GS 15.6 ± 2.3 16.0 ± 0.6 13.5 ± 2.5 14.3 ± 0.8 20.8 ± 1.2 17.4 ± 2.0 21.5 ± 0.5
    D7 + 40%GS 18.4 ± 3.4 15.7 ± 0.4 11.7 ± 2.1 14.5 ± 0.6 20.0 ± 1.5 17.5 ± 2.1 21.7 ± 0.8
    下载: 导出CSV
  • [1]

    Chao Guoqing, Sun Shiliang, Bi Jinbo. A survey on multiview clustering[J]. IEEE Transactions on Artificial Intelligence, 2021, 2(2): 146−168 doi: 10.1109/TAI.2021.3065894

    [2]

    Cai Deng, Chen Xinlei. Large scale spectral clustering via landmark-based sparse representation[J]. IEEE Transactions on Cybernetics, 2014, 45(8): 1669−1680

    [3]

    Nie Feiping, Wang Xiaoqian, Huang Heng. Clustering and projected clustering with adaptive neighbors[C]//Proc of the 20th ACM SIGKDD Int Conf on Knowledge Discovery and Data Mining. New York: ACM, 2014: 977−986

    [4]

    Kang Zhao, Zhou Wangtao, Zhao Zhitong, et al. Large-scale multi-view subspace clustering in linear time[C]//Proc of the AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2020: 4412−4419

    [5]

    Wang Siwei, Liu Xinwang, Liu Suyuan, et al. Align then fusion: Generalized large-scale multi-view clustering with anchor matching correspondences[J]. Advances in Neural Information Processing Systems, 2022, 35: 5882−5895

    [6]

    Li Xuelong, Zhang Han, Wang Rong, et al. Multiview clustering: A scalable and parameter-free bipartite graph fusion method[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2022, 44(1): 330−344 doi: 10.1109/TPAMI.2020.3011148

    [7]

    Wei Xia, Quanxue Gao, Wang Qianqian, et al. Tensorized bipartite graph learning for multi-view clustering[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2023, 45(4): 5187−5202. doi: 10.1109/TPAMI.2022.3187976

    [8]

    Yang Ben, Zhang Xuetao, Li Zhongheng, et al. Efficient multi-view k-means clustering with multiple anchor graphs[J]. IEEE Transactions on Knowledge and Data Engineering, 2023, 35(7): 6887−6900

    [9]

    Lao Jinghuan, Huang Dong, Wang Changdong, et al. Towards scalable multi-view clustering via joint learning of many bipartite graphs[J]. IEEE Transactions on Big Data, 2024, 10(1): 77−91 doi: 10.1109/TBDATA.2023.3325045

    [10]

    Huang Dong, Wang Changdong, Wu Jiansheng, et al. Ultra-scalable spectral clustering and ensemble clustering[J]. IEEE Transactions on Knowledge and Data Engineering, 2020, 32(6): 1212−1226 doi: 10.1109/TKDE.2019.2903410

    [11]

    Wei Zhu, Nie Feiping, Li Xuelong. Fast spectral clustering with efficient large graph construction[C]//Prof of the 2017 IEEE Int Conf on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE, 2017: 2492−2496

    [12]

    Zhang Pei, Wang Siwei, Li Liang, et al. Let the data choose: Flexible and diverse anchor graph fusion for scalable multi-view clustering [C]//Proc of the AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2023: 11262−11269

    [13] 于晓,刘慧,林毓秀,等. 一致性引导的自适应加权多视图聚类[J]. 计算机研究与发展,2022,59(7):1496−1508 doi: 10.7544/issn1000-1239.20210126

    Yu Xiao, Liu Hui, Lin Yuxiu, et al. Consistency-guided adaptive weighted multi-view clustering[J]. Journal of Computer Research and Development, 2022, 59(7): 1496−1508 (in Chinese) doi: 10.7544/issn1000-1239.20210126

    [14]

    Huang Dong, Wang Changdong, Lai Jianhuang. Fast multi-view clustering via ensembles: Towards scalability, superiority, and simplicity[J]. IEEE Transactions on Knowledge and Data Engineering, 2023, 35(11): 11388−11402 doi: 10.1109/TKDE.2023.3236698

    [15]

    Zhou Peng, Du Liang, Liu Xinwang, et al. Partial clustering ensemble[J]. IEEE Transactions on Knowledge and Data Engineering, 2024, 36(5): 2096−2109 doi: 10.1109/TKDE.2023.3321913

    [16]

    Liu Jiyuan, Liu Xinwang, Yang Yuexiang, et al. One-pass multi-view clustering for large-scale data[C]//Proc of the IEEE/CVF Int Conf on Computer Vision. Piscataway, NJ: IEEE, 2021: 12344−12353

    [17]

    Kang Zhao, Lin Zhiping, Zhu Xiaofeng, et al. Structured graph learning for scalable subspace clustering: From single view to multiview[J]. IEEE Transactions on Cybernetics, 2022, 52(9): 8976−8986 doi: 10.1109/TCYB.2021.3061660

    [18]

    Wang Siwei, Liu Xinwang, Zhu Xinzhong, et al. Fast parameter-free multi-view subspace clustering with consensus anchor guidance[J]. IE-EE Transactions on Image Processing, 2022, 31: 556−568 doi: 10.1109/TIP.2021.3131941

    [19]

    Liu Suyuan, Wang Siwei, Zhang Pei, et al. Efficient one-pass multi-view subspace clustering with consensus anchors[C]//Proc of the AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2022: 7576−7584

    [20]

    Fang Siguo, Huang Dong, Cai Xiaosha, et al. Efficient multi-view clustering via unified and discrete bipartite graph learning[J]. arXiv preprint, arXiv: 2209.04187, 2023

    [21]

    Liu Xinwang, Liu Li, Liao Qing, et al. One pass late fusion multi-view clustering[C]//Prof of the Int Conf on Machine Learning. New York: ACM, 2021: 6850- 6859

    [22]

    Yang Ben, Zhang Xuetao, Nie Feiping, et al. Fast multi-view clustering via nonnegative and orthogonal factorization[J]. IEEE Transactions on Image Processing, 2020, 30: 2575−2586

    [23]

    Cai Xiao, Nie Feiping, Huang Heng. Multi-view k-means clustering on big data[C]//Prof of the 23rd Int Joint Conf on Artificial Intelligence. San Francisco, CA: Margan Kaufmann, 2013: 2598−2604

    [24]

    Xu Jinglin, Han Junwei, Nie Feiping, et al. Re-weighted discriminatively embedded k-means for multi-view clustering[J]. IEEE Transactions on Image Processing, 2017, 26(6): 3016−3027 doi: 10.1109/TIP.2017.2665976

    [25]

    Nie Feiping, Shi Shaojun, Li Xuelong. Auto-weighted multi-view co-clustering via fast matrix factorization[J]. Pattern Recognition, 2020, 102: 107207 doi: 10.1016/j.patcog.2020.107207

    [26]

    Fred A L N, Jain A K. Combining multiple clusterings using evidence accumulation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2005, 27(6): 835−850 doi: 10.1109/TPAMI.2005.113

    [27]

    Iam-On N, Boongoen T, Garrett S, et al. A link-based approach to the cluster ensemble problem[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(12): 2396−2409 doi: 10.1109/TPAMI.2011.84

    [28]

    Tao Zhiqiang, Liu Hongfu, Li Sheng, et al. Robust spectral ensemble clustering[C]//Proc of the 25th ACM Int Conf on Information and Knowledge Management. New York: ACM, 2016: 367−376

    [29]

    Huang Dong, Wang Changdong, Lai Jianhuang. Locally weightedensemble clustering[J]. IEEE Transactions on Cybernetics, 2017, 48(5): 1460−1473

    [30]

    Topchy A, Jain A K, Punch W. Clustering ensembles: Models of consensus and weak partitions[J]. IEEE Transactions on Pattern Analysisand Machine Intelligence, 2005, 27(12): 1866−1881 doi: 10.1109/TPAMI.2005.237

    [31]

    Bai Liang, Liang Jiye, Du Hangyuan. An information-theoretical framework for cluster ensemble[J]. IEEE Transactions on Knowledge and Data Engineering, 2019, 31(8): 1464−1477

    [32]

    Strehl A, Ghosh J. Cluster ensembles—A knowledge reuse framework for combining multiple partitions[J]. Journal of Machine Learning Research, 2002, 3: 583−617

    [33]

    Zhou Peng, Du Liang, Liu Xinwang, et al. Self-paced clustering ensemble[J]. IEEE Transactions on Neural Networks and Learning Systems, 2021, 32(4): 1497−1511 doi: 10.1109/TNNLS.2020.2984814

    [34]

    Li Zhihui, Nie Feiping, Chang Xiaojun, et al. Balanced clustering via exclusive lasso: A pragmatic approach[C]//Proc of the AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2018: 3596−3603

图(5)  /  表(11)
计量
  • 文章访问数:  53
  • HTML全文浏览量:  10
  • PDF下载量:  25
  • 被引次数: 0
出版历程
  • 收稿日期:  2024-03-15
  • 修回日期:  2024-08-18
  • 录用日期:  2025-01-08
  • 网络出版日期:  2025-01-08

目录

/

返回文章
返回