-
摘要:
在应对这一挑战时都面临多个问题. 其中,一致性锚点图学习方法难以处理锚点图不对齐问题,并且过度依赖一致性图,限制了其聚类结果的准确性和可靠性;锚点图集成聚类方法则是在基聚类器的生成与融合过程中割裂了不同锚点图之间的联系,影响了其聚类效果的有效性和稳定性. 为解决这些问题,提出了一种基于双端联合学习的新型多视图聚类方法. 该方法充分考虑了多锚点图信息和锚点端聚类对样本端聚类的联合作用,实现了锚点端聚类和样本端聚类同步进行,并通过对多锚点图信息的综合实现了样本端聚类与多个锚点端聚类的集成对齐. 与现有方法不同,该方法无需直接学习一致性锚点图,可以处理任意类型的锚点不对齐问题,并且规避了图学习与图划分分步处理对聚类性能的不利影响. 此外,其在一个完整的优化框架中同时利用多个锚点图进行锚点端聚类和样本端聚类,有效解决了基聚类器生成阶段无法利用除自身外的其他锚点图和集成阶段无法充分利用所有锚点图的问题. 实验结果表明,所提出的方法在聚类性能和时间消耗方面均优于多个对比方法,有效增强了多视图数据的聚类性能. 所提出方法以及所采用对比方法的相关代码附在:http://github.com/lxd1204/DLMC.
Abstract:Multi-anchor graph approaches have attracted more and more attention for their potential in addressing the challenges of large-scale multi-view clustering. However, existing methods leveraging multi-anchor graphs encounter several hurdles when it comes to tackling this challenge. The consistency-anchored graph learning methods struggle with handling misaligned anchor graphs and necessitates additional post-processing with consistency graph, thereby constraining the accuracy and reliability of clustering outcomes. And the anchor graph ensemble clustering method fails to harness the complementary information from different views during the independent generation of candidate base clustering and overlooks the original anchor graphs during fusion, thus impacting the effectiveness and stability of clustering results. To address these challenges, we propose a novel approach based on double-ended joint learning for multi-view clustering. The method fully considers the duality between multi-anchor information and samples in multi-anchor graphs, achieving synchronized clustering between anchor-end and sample-end. Moreover, under the guidance of multi-anchor information, it achieves joint alignment between sample-end clustering and multiple anchor-end clustering. Unlike existing methods, the approach does not require direct learning of consistent anchor graph, thus can handle any type of anchor misalignment issues and mitigating the negative impact of separate graph learning and partitioning on clustering performance. Additionally, it utilizes multiple anchor graphs for anchor-end clustering and sample-end clustering within a unified optimization framework, effectively addressing the limitations of base clustering and the ensemble stage in leveraging multiple anchor graphs. Experimental results demonstrate that the proposed method outperforms several comparative methods in terms of clustering performance and time consumption, effectively enhancing the clustering performance of multi-view data. The relevant code for the proposed method and comparative methods is provided in the supplementary material: http://github.com/lxd1204/DLMC.
-
Keywords:
- multi-view clustering /
- anchor end /
- sample end /
- alignment /
- ensemble
-
目前,人工智能和深度学习发展迅猛,取得了显著的技术突破和应用成果. 深度学习算法在图像识别、自然语言处理、语音识别和自动驾驶等领域表现出卓越的性能,推动了智能产品和服务的普及. 尽管取得了巨大成就,人工智能和深度学习仍面临挑战,包括对大数据和高性能计算资源的依赖、能效和并行处理能力的限制、在复杂任务中的泛化能力不足等. 人类大脑由大约1 000亿个神经元组成,每个神经元平均有7 000个突触,形成了一个错综复杂的巨大网络 [1-2]. 尽管中枢神经系统内的神经元之间有着复杂的联系,大脑仍然通过其高效的事件驱动通信实现了显著的能量效率. 可见,大脑和深度学习架构之间存在着巨大的能效差距和并行处理能力的差距[3].
许多国家已经开始从人类大脑的连接模式和计算模型中寻求灵感,通过探索生物神经网络的机制,模拟大脑处理和存储信息的方式,旨在设计受大脑启发的高能效计算平台——神经形态平台(neuromorphic platforms). 脉冲神经网络(spiking neural network, SNN)作为神经形态平台的基本计算范式,使用离散的脉冲来传递信息,这使得它们在信息处理和能耗效率方面更接近于生物神经系统,并在模式识别、感知系统等应用中表现出色[4-6]. 为模拟大脑的操作动力学,神经形态平台通常包含数千个并行核心. 例如,IBM在其深蓝超级计算机平台上使用了近150 000个CPU来模拟猫的大脑皮层模型[7]. SpiNNaker项目[8]已经实现了一个具有惊人的1 036 900个ARM 内核的大规模神经形态系统,这就导致网络中充斥着海量的数据包. 因此,在神经形态平台上运行SNN的一个关键挑战是如何在数千个核心之间分配大量的数据包流量. 传统的芯片通信架构使用总线结构,其中所有模块共享一个通信总线. 随着芯片集成度的增加和系统规模的扩大,总线架构面临着通信带宽瓶颈、延迟增加和功耗上升等问题. 片上网络(network-on-chip, NoC)应运而生,为这些问题提供了一种有效的解决方案. NoC是一种在芯片级别上实现高度集成的通信架构,可以提供更高的吞吐量、更低的延迟以及良好的可扩展性、可重构性、灵活性. 这些特性使得NoC成为目前神经形态平台常采用的一种互连体系结构.
目前神经形态平台NoC的设计还面临着一些挑战. 首先在传输模式方面,一个神经元的脉冲信号常常需要传递给多个有突触连接的目标神经元. 要处理这种一对多的传输模式,多播技术比传统的单播技术更加适合[9]. 多播技术可以一次性将脉冲信号发送给所有目标神经元,而不需要逐个发送,这显著提高了数据传输的效率,减少了通信开销和延迟. 此外,多播更逼真地再现了生物神经网络的并行处理能力和信息传播方式[10]. 然而之前的很多神经形态平台,如TrueNorth[11]、Loihi[12]、天机芯[13]等,只支持单播路由策略. 这种通过多次点对点传输来完成多播的方式会导致额外的功耗开销和低传输效率. 除了路由器的传输模式以外,NoC及其路由策略的可扩展性和存储信息开销也是满足未来神经形态计算需求的关键之处. 部分工作[14-15]基于目的驱动的路由方式,将所有的目的地路由信息以分组报头的形式嵌入到数据包中. 这种方式会严重影响NoC的可扩展性,当目的地数量增多时,数据包将会呈线性膨胀;还有一些工作[16-18]基于源驱动的路由方式,将所有可能的路由路径提前计算好,并保存在本地存储器中,数据包中只传输其源地址. 这种方式存在的一个问题是经过每个中间节点都需要查路由表的延迟和功耗代价过大.
为了解决这些问题,本文针对大规模神经形态平台的通信需求,提出了一个脑启发的NoC设计. 本文的主要贡献包括3个方面:
1)借鉴大脑的小世界网络特性,提出了自适应、无死锁的区域广播 (region-broadcast,ReB)路由方案,通过统一的数据包格式和路由策略将单播、多播和广播融合起来,以更加通用简洁的方式适应神经形态平台的各种数据通信模式,并且设计了支持多种脉冲传输模式的路由器. ReB利用脉冲发放的空间局部性,获得了更加均衡的链路负载和更低的峰值流量;
2)设计了一个突触连接索引方法用来替换传统的路由表,将神经元之间的突触连接信息存储起来,从而使NoC获得良好的可扩展性和较低的传输功耗;
3)在合成流量、4个SNN应用以及脑皮质柱网络上对ReB和其他相关工作进行了链路负载、延迟、吞吐量和功耗等方面的对比,展示了在神经形态平台NoC的设计中,我们的ReB路由策略和突触连接索引方法会更加具有优势.
实验表明,与现有工作相比,ReB路由方案将峰值脉冲流量和链路负载标准差分别降低了11.5%和20.4%,并且有效提升了网络的延迟、吞吐量和功耗等方面的性能. 同时,所提出的ReB路由器的带宽达到0.24 spike/cycle, 硬件实现面积仅为0.014 mm2.
1. 背景及相关工作
本节将介绍大脑网络和神经元之间通信相关的背景知识,以及概述一些已有的神经形态平台NoC和专用NoC设计.
1.1 大脑的小世界网络特性
随着从人类神经影像数据中重构网络技术的发展,Latora等人[19]的工作表明人类大脑网络有小世界特性,具有高度聚集的结构和全局性的高效率——神经元倾向于形成紧密联系的群体,而且具有较短的特征路径长度. 图1展示了大脑区域之间的连接模式.
由于连接远距离神经元的昂贵布线成本,大脑网络的进化倾向于将连接的神经元尽可能靠近,这有助于提高大脑网络的拓扑效率和鲁棒性[2].
真实生物神经元的平均放电速率为10 Hz. 在人类大脑中,1011个神经元的集体活动导致每秒产生多达1012数量的脉冲信号. 尽管中枢神经系统内的神经元之间存在大量的尖峰信号,但大脑仍然通过其模块化结构实现了显著的能量效率. 这种非凡的效率赋予大脑在认知和感知等复杂任务中强大的学习和记忆能力. 大脑网络通信成本有3个方面[20]:延迟、能量和信息成本. NoC的通信模型在这3个方面之间实现良好的平衡,有可能构成生物学意义上更加合理的神经通信策略.
1.2 神经形态平台NoC及专用NoC
在大规模神经形态平台研究领域,已经涌现了大量的片上网络设计. 2014年IBM发布的大规模仿人脑芯片TrueNorth[11]含4 096个核心,基本计算核通过2D mesh路由形成可拓展的大规模神经形态网络. 2019 年清华的异构融合类脑芯片天机芯[13]具有高速度、高性能、低功耗的特点,“天机芯I”采用了2D mesh路由结构,每块芯片含有6个FCore,片内的 6 个 FCore 呈 2×3 矩形 2D 排列,每个FCore 的路由节点可以与东南西北4个方向的 FCore 交换信息,同时也可以将信息发送至本地 FCore. Intel的多核类脑芯片Loihi [12] 实现了异步片上网络,用于核间通信,网络拓扑结构为2D mesh,由于与芯片间消息事务相关的死锁保护的原因,Loihi 的NoC使用2个独立的物理路由器网络. 斯坦福大学研制的Neurogrid[21]数模混合系统中每个256×256的神经元阵列组成一个神经核,16个神经核通过树形的拓扑连接结构形成分级网络. Neurogrid采用多播树的片上路由策略,通过分2个阶段(向上阶段和向下阶段)进行路由,并将数据包的分流限制到向下阶段,从而避免死锁. 但这种路由方法与其独特的神经核树形拓扑连接方式相适应,不具备通用性. SpiNNaker[22]是一种专门设计用于支持大脑中各种通信的计算机,它的关键创新是通信架构,路由系统采用基于2D triangular mesh的轻量级多播包路由机制,并提出了增强的最短路径路由(enhanced shortest path routing,ESPR)和邻居探索路由(neighbour exploring routing,NER)这2种源驱动的路由方式来完成SpiNNaker的通信需求. 2021年复旦大学设计的负载感知多播路由(load-aware multicast routing,LAMR)策略[16]主要采用源驱动的基于树的多播路由机制. LAMR通过宽度优先搜索来寻找拥塞较小的路由路线,并且尽可能合并多播路径,实现了较高的通信效率.
此外,近年来还出现了许多专用的NoC设计. 2017 年Akbari 等人[23]设计了一种用于神经形态结构的高性能片上网络拓扑——Dragonfly,以解决传统拓扑结构具有高直径、低平分带宽和较差的 集体通信支持. 2023 年Yazdanpanah[14]提出了基于2层 2D mesh 拓扑结构的 TLAM路由方法,采取了混合树/路径的多播路由策略. 它将片上网络划分成4个分区,每个分区有一个中心节点,并且通过4条新增链路将中心节点连接起来. 单播数据包采用基于转向的无死锁XY路由,多播数据包在每个本地分区采用哈密顿路径进行路由. 杨智杰等人[24]设计的类脑处理器异步片上网络架构 NosralC采用异步链路和同步路由器实现,在资源和性能开销不大的前提下,实现了延迟的降低和能效的提升.
目前大多数神经形态平台NoC只支持单播路由策略,通过多次单播来实现多播. 专用NoC设计虽然在一定程度上解决了传输模式单一的问题,但路由策略仍然存在不够灵活高效的问题,在支持多播方面,对于网络的死锁避免问题也没有很好的解决办法. 此外,路由信息存储方法仍然存在着可扩展性低和功耗开销过大的问题.
2. 脑启发的NoC设计
在本节中,我们主要介绍针对大规模神经形态平台片上互连通信所设计的NoC架构,包括整体的设计方案、详细的路由策略、路由器架构和突触连接索引方法,并对NoC的可扩展性进行了分析讨论.
2.1 整体设计方案及路由策略
受人脑小世界网络特性的启发,本文提出了一种用于大规模神经形态平台上脉冲数据包传输的无死锁ReB路由策略. ReB路由策略可以支持单播、多播和广播的并行路由计算和传输. 路由算法的整体思路如图2所示.
详细的流程解释如下:
1)根据SNN模型中神经元的互连情况,将连接紧密的神经元尽可能划分到一个计算核心,完成神经元到片上网络的映射.
2)针对每个源神经元的目标神经元,我们通过算法(如层次聚类算法)对目标神经元进行聚类,得到一些簇集. 对每个聚类簇用矩形框起来,并用一条 对角线的2个坐标点表示:A(x1,y1),B(x2,y2),其中A是矩形的左上角顶点,B 是右下角顶点.
3)将每个聚类簇矩形信息,即A和B这2个坐标点存储到与源神经元相对应的存储单元中. 当神经元产生脉冲事件时,它会访问本地存储器得到与该神经元相对应的聚类簇矩形,并将数据包发送到目标矩形区域的边界节点. 当到达目标区域后,数据包在该区域进行广播,区域内的节点访问突触连接信息以确定该数据包是否被接收.
在单播模式的情况下,矩形区域是1个点;在具有多个目的神经元的情况下,表示多播模式,支持多个目的地和矩形区域;当目的神经元分布在NoC的所有核心上时,表示广播模式,矩形区域包含整个2D mesh片上网络. 图2(c)展示了ReB路由策略的大致过程,它具有自适应和无死锁的特性. 通过ReB路由第1次到达矩形区域的节点,我们称之为过渡节点. 首先,ReB路由在区域内进行广播的方式为:对于过渡节点,它会向所有方向(除去传入和边界方向)发送数据包;对于区域内的其余节点,从X方向进入的数据包在所有方向上(除去传入和边界方向)进行传输;从Y方向进入的数据包只沿着相同的Y方向发送. 其次,从源节点发往目标区域的过程中是基于西向优先转向模型[25]进行路由,我们将其扩展以支持目的地不是单个节点而是一个矩形区域的情况:当源节点在矩形区域左边界的东边并且在区域的上方或下方时,数据包需要先向西传输到矩形区域的左边界的延长线上,再以最短距离传输到矩形区域. 使用这种方法的原因在于避免从区域外的单播切换到区域内的广播时,发生违背转向规则的传输,正如图3所示.
在NoC中,数据包需要在各个处理单元之间不断传输. 死锁情况会导致数据包在某个节点或路径上无法前进,从而阻塞整个网络的通信. 随着片上核心数量的增加,通信路径变得更加复杂. 如果网络中存在死锁风险,系统的扩展会变得更加困难. ReB路由策略通过禁止由南向西和由北向西2个方向的转向,使得在NoC上不会形成环路依赖. 即使对于多播数据包的传输,也可以避免在NoC上发生死锁的现象.
本文提出的路由机制还实现了拥塞感知的路径选择. 如图2(c)所示,路由器在收到东向链路上的full信号时,会将数据包向南发出,而不是阻塞在当前节点,这种自适应的路径选择发生在图4中的位置1和位置2.
对于源节点在位置1的情况,可以根据相邻节点输入信道的full信号,选择向东或者向南传输;源节点在位置2的情况同理,选择向东或向北传输. 对于源节点在位置3和4的情况,数据包直接沿X方向传输到目的矩形区域即可. 由于这些情况都是以最短路径传输到目的区域的过渡节点上,因此也不存在活锁的发生. 具体路由算法的伪代码见算法1.
算法1. ReB路由算法.
输入:当前节点坐标(x,y),目标区域的左上顶点坐标(XL,YL),右下顶点坐标(XR,YR),数据包传入方向inport;
输出:数据包的所有输出方向outs.
① /* 在目标矩形区域内*/
② if(x,y)在目标区域内
③ if 数据包是第1次到达目标矩形区域或者 inport==east or west
④ outs←除去inport和边界方向的其他所有 方向;
⑤ else if inport==north or south
⑥ outs←inport的反方向;
⑦ endif
⑧ else /* 在目标矩形区域外*/
⑨ if x > XL
⑩ outs←west;
⑪ else
⑫ if YL ≤ y ≤ YR 或者东边没有传来满信号
⑬ outs←east;
⑭ else if y < YL
⑮ outs←south;
⑯ else if y > YR
⑰ outs←north;
⑱ endif
⑲ endif
⑳ endif
2.2 路由器的硬件设计
本文还实现了支持ReB策略的路由器,用于混合模式的脉冲数据包传输. 图5展示了路由器的硬件整体架构. 为了进一步减少面积开销,我们不使用虚通道技术,也不为输出端口配备缓冲区. 当数据包到达输入端口时,它会被写入相应的先进先出(first in first out,FIFO)存储器. 然后,ReB逻辑执行路由计算,以确定此数据包的输出端口. 路由输出端口根据来自相邻路由器输入信道的full信号自适应地改变,这可以有效地减少片上网络中的拥塞. 接下来,数据包将进入开关分配阶段,它会仲裁开关的输入输出端口. 一旦分配到输出端口,单播数据包就会从缓冲区中读出并进行到开关传输阶段. 最后,数据包经过链路传输到下游路由器. 对于多播或者广播数据包,它可能会请求多个输出端口,数据包将被复制到多个输出端口. 只有当数据包被成功传输到所有的目的端口后,它才会从FIFO中被移除.
数据包大小统一为64 b,最高的2 b表示数据包类型,包括单播(00),多播(01)和广播(10). 接下来的2个8 b字段分别表示目的矩形区域的左上坐标(XL,YL)和右下坐标(XR,YR). 标签tag和索引index字段用于判断矩形区域中的节点是否接收该数据包,在目标区域之外不发挥作用. 最后一个字段表示数据有效载荷. 图5还展示了所提出ReB路由策略的硬件电路设计. 该电路由基本门电路、比较器和多路选择器组成. 比较器用于将当前路由器地址与目标地址进行比较,比较的结果和邻居路由器传来的full信号综合起来作为输出方向的判定条件. 多路选择器根据当前路由器位于矩形区域内外的情况对输出方向进行一个选择.
2.3 突触连接索引方法
在本文中,我们部署了一种突触连接索引方法来配合ReB路由策略并替换掉多播路由表,使得NoC 的信息传输可以覆盖每个核心的所有神经元,相当于模拟真实神经元之间的突触连接. 当神经元发放脉冲时,神经元ID将用于查找目的地信息. 具体流程如图6所示. 源神经元ID被用作访问发送端第1级存储器的索引,以获得多播区域的基地址和区域数量. 然后根据基地址和区域数量访问发送端第2级存储器的相应条目. 每个条目都包括目标区域的左上坐标、右下坐标、标签和索引字段. 条目中字段的含义与数据包格式中相应字段的含义一致. 最后,这些与目的神经元相关的基本信息被组装成数据包并由路由器发送到网络中. 当脉冲数据包到达目的节点处的路由器时,数据包的索引字段用于检索接收端第1级存储器,将脉冲数据包中的标签字段与索引条目中的标签进行比较,如果它们匹配,则认为该数据包有资格由当前核心接收. 接着,路由器使用基地址和索引条目中的神经元数量来检索接收端第2级存储器中所有的目标神经元ID和树突ID. 这些ID用于访问核心数据区中的突触权重,为神经元计算做准备. 发送端和接收端的多级存储器构建了不同神经元之间突触连接的桥梁. 图6还展示了一个在NoC上的不同核心之间神经元互连通信的示例,核心0中的1个神经元分别与核心1中的神经元1、核心2中的神经元2、核心3中的神经元3和4存在突触连接. 当源神经元发送脉冲数据包时,它通过发送端的2级存储器获取目的区域的路由信息,按照ReB路由策略传输到核心1,2,3所组成的目的区域. 当核心3收到该脉冲数据包时,它会访问接收端的多级存储器,通过索引和标签字段判断出当前核心可以接收该数据包,进而获取要传输到的具体神经元ID,即神经元3和4.
2.4 可扩展性分析
所提出NoC具备良好的可扩展性. 一方面,数据包采用统一的格式来完成混合模式的脉冲数据传输. 多播目的地以矩形区域的形式嵌入到大小为O(log N)的single-flit数据包中,其中N表示为片上网络的核心数. 由于数据包无需存储所有的目的地路由信息,这大大节省了信息传输开销. 矩形区域的编码长度随着片上核心数目增加呈对数变化,这对于大规模神经形态平台的扩展具有很大的优势. 此外,mesh拓扑结构本身就具备灵活扩展的特性,这种扩展不会显著增加整体复杂度或影响网络性能.
另一方面,目的驱动的路由方式在传输路径上不需要路由表. ReB 路由只需要在源节点和目的区域索引突触连接关系来发送和接收数据包,而不是路径上的每一跳都要访问路由表. ReB路由访存功耗与源驱动的路由方式所产生的访存功耗的比值推导如下:
PReBP源驱动=(1+k)×e(1+h)×e=(1+k)(1+h), (1) 其中e表示一次访存所产生的能耗,k表示多播的目的地数量,h表示传输的总跳数. 如图7所示,以基于源驱动的维序路由[18]为例,我们统计了不同NoC拓扑大小下源驱动路由的平均总跳数,并计算了式(1)中访存功耗的比值. 当2D mesh的拓扑变大时,对于随机产生目的地的方式来说,该比值会随之变小. 主要原因是ReB路由的访存功耗与拓扑规模大小无关,仅与多播目的地数量相关,而源驱动路由中的总跳数h与网络拓扑大小呈正相关.
ReB路由策略的良好可扩展性对于大规模神经形态平台至关重要,它能够确保系统在面对不断增加的计算需求时,可以灵活地增加计算核心或存储资源,并且仍然保持高效的性能和较低的功耗,以应对更大规模的复杂神经网络任务.
3. 实 验
本节分析讨论了所提出的ReB路由策略对链路负载、网络延迟和吞吐量的影响,以及所提出的突触连接索引方法对功耗的影响. 这些都是衡量NoC性能的关键指标. 本节将基于PAT-Noxim[26]仿真器展开实验. 它是基于SystemC开发的周期精确的 NoC 模拟器,可以进行延迟、吞吐量等数据的分析,也可以根据有关功耗的细粒度统计数据进行性能的评估. 此外,我们选取了一些经典的路由策略以及最近一些NoC工作中所采取的路由策略作为对比,包括UNICAST,XY[25],ESPR[18],LAMR[16]. 其中UNICAST算法通过多次的单播来完成多播,作为对比的基线策略,以衡量多播技术所带来的性能提升;XY多播路由优先往X方向传输数据包,遇到Y方向上存在多播目的地时复制数据包并产生路由分支;增强最短路径路由(enhanced shortest path routing,ESPR)是SpiNNaker神经形态平台所提出的片上多播路由策略,它通过尽可能合并多播的路由路径来减少链路负载;负载感知多播路由(load-aware multicast routing,LAMR)是复旦大学团队设计的基于树的多播路由机制,它通过宽度优先搜索来寻找拥塞较小的路由路线. 这些策略都在仿真器上进行了部署和实现. 为了使实验结果更加具有可靠性,我们进行重复实验计算性能指标的平均值. 具体的仿真实验参数配置如表1所示.
表 1 仿真实验参数配置Table 1. Simulation Parameters Setting参数 值 mesh大小 10×10 FIFO深度 8 微片大小/b 64 数据包长度 signle-flit 交换机制 虫洞 路由器流水线长度 4级 合成流量模式 random,transpose,hotspot 多播目的地数量 10,20,30 注入率/(packet/(cycle·node)) 0.01~0.055 热身时间/cycle 1 000 运行时间/cycle 20 000 此外,为了更好地发挥所提出ReB策略的自适应路由的优势和减少由于西向优先产生的额外跳数,我们对ReB的多播随机目的地映射进行调整,将源节点尽量放置在图4中相对目的区域的位置1~4,这种方式命名为ReB-MA (mapping adjustment).
3.1 合成流量模式下的性能评估
为了评估ReB和其他路由策略的链路负载、延迟和吞吐量等性能指标,我们使用了多种合成通信流量模式,包括随机(random)、翻转(transpose)、热点(hotspot).
3.1.1 链路负载
图8(a)为各种路由方案下所有链路流量分布的盒图,可以看出由于更好地利用了目的地位置的局部趋向性,ReB和ReB-MA策略的流量分布更加集中均衡. 与LAMR算法相比,ReB-MA的峰值流量降低了11.5%. UNICAST通过多次单播来完一次多播的数据包传输,这种方式显著地增加了网络流量,并且降低了传输效率. ESPR和LAMR策略通过一些方法来合并不同数据包的多播路径,从而减少了传输过程中的多播路由分支. 因此,相比于没有路径合并机制的XY多播来说,平均链路流量和峰值负载都得到了很大程度的降低. 此外,由于映射调整后的ReB-MA可以更多地利用路由的自适应拥塞感知策略去改变数据流量的传输路径,网络流量相比于ReB也会更好地分散在不同的链路上,从而进一步降低链路的峰值负载.
如图8(b)所示是所有链路负载标准差的对比实验结果. 标准差δ可以通过式(2)(3)得到:
δ=√m∑i=1(xi−μ)2m, (2) μ=m∑i=1xim, (3) 其中,i表示链路编号,xi是链路i的数据流量数,m是有效链路的总数. 在这个例子中,对于10×10大小的2D mesh NoC来说,m为360. 我们从图8(b)中可以发现,采用ReB路由的链路负载的标准差减少了20.4%,获得了更加均衡的负载流量,可以在很大程度上缓解网络上的拥塞.
3.1.2 吞吐量
如图9所示,我们研究了在不同多播目的地数量和不同拓扑大小下的网络饱和吞吐量,以表征系统的整体数据传输能力. 其定义如下:
吞吐量=接收的数据包总数仿真运行时间×节点数. (4) 我们逐渐增加注入率,直到网络吞吐量不再增加,此时的吞吐量被定义为饱和吞吐量. 从图9(a)可以看到,从10个多播目的地到30个多播目的地,ReB和ReB-MA策略的网络饱和吞吐量逐渐增加,相对于其他路由策略,始终保持较大的饱和吞吐量. 在30个多播目的地时,ReB-MA策略下每个路由器的饱和吞吐量可以达到0.16 数据包/周期. 我们设计的无死锁机制使得在注入率较大时,网络依然可以连续不断地对数据包进行传输. ESPR和LAMR路由策略由于没有相应的死锁避免机制,相比于无死锁的XY多播路由,并没有取得吞吐性能上的优势.
片上网络的拓扑大小取决于具体的神经形态规模需求,较大的片上网络会带来传输跳数和延迟的增加,较小的片上网络会导致系统支持的神经元数量减少. 图9(b)展示了在不同拓扑规模下的网络饱和吞吐量,可以看到随着拓扑规模的变大,平均传输路径变长,UNICAST单播方式的吞吐量下降趋势尤为明显,其他几种多播算法也出现不同程度的下降. ReB策略在不同拓扑大小下保持相对较高的网络吞吐量,在20×20的拓扑大小下,吞吐量仍然达到0.08 packet/(cycle·node).
3.1.3 平均延迟
图10展示了在不同数据包注入率下的平均延迟并在random,transpose,hotspot这3种不同的合成流量模式下将不同的路由策略进行对比. 延迟被定义为数据包到达目的地被接收的时间戳与数据包产生的时间戳之间的差值. 注入率被定义为单位周期内每个节点产生的数据包数量.
可以看到,对于不同的流量模式,ReB和ReB-MA在轻到中等流量负载下都表现出相对较低的延迟. 相较于完全单播的方式,ReB路由在0.01注入率下,平均延迟减少了约20.7%~30.8%. 此外,在random和hotspot的流量模式下,我们提出的路由方案可以支持更高的数据流量注入率,并且在NoC上不会产生死锁和活锁的现象,这对于大规模神经形态平台中的信息传输具有重要意义. 虽然在transpose流量模式下,LAMR路由表现较为出色,但其在高注入率下很容易发生死锁,导致系统运行被阻塞,需要重复运行很多次仿真来获取实验结果.
3.2 真实SNN应用下的性能评估
SNN作为神经形态平台的基本计算范式,将其进行映射部署到NoC上进行仿真验证是有意义的. 本实验使用了4种不同类型的SNN应用,它们具有不同的连接模式和数据集,如表2所示. 表中 4C3 表示卷积通道数为 4、卷积核大小为 3×3,MP2 表示步长为2的最大池化层,10FC 表示输出维度为 10的全连接层,36H表示SRNN网络结构里的36个隐藏层神经元,{K}×3表示有3个K结构.
QTDB 和 Ev-object数据集对应的SNN网络结 构都只有全连接,因此多播比例是100%. 除了全连 接外,MNIST和DVS-Gesture对应的SNN网络还有 卷积层和池化层. 图11展示了在不同SNN应用下的归一化运行时间和功耗开销.
ReB路由策略利用神经元高度聚集结构的特性,在更短的运行时间内处理完所有输入的脉冲信号. 突触连接索引方法节省了在路由路径上查找路由表所产生的功耗,而只需要在源节点和目的区域内对突触连接的存储信息进行访问. 这对于网络中较长的传输路径来说,具有很大的能效优势.
3.3 脑网络仿真
目前人类对大脑的认知程度还十分有限,但已经涌现了大量的脑仿真建模工作. 为了更加全面地评估ReB NoC架构的性能,我们基于Potjans等人[31]所提出的分层皮质微环路模型开展仿真验证实验,如图12所示. 皮质柱被认为是大脑的基本功能块,第2/3,4,5,6层分别由模型神经元的兴奋性(三角形)和抑制性(圆形)群体表示,群体的输入由丘脑皮层输入靶向层4和6以及所有群体的其他外部输入表示,模型尺寸对应于1mm2表面下的皮质网络.
图13(a)统计了该脑网络模型中每个神经元群的脉冲发放频率,L5层的脉冲发放较为频繁,意味着会输出更多的数据包到网络中. 各个神经元群的平均脉冲发放率不超过10 spike/s,每个计算核心可以容纳
2048 个神经元,因此一个计算核心的最大发放率为20 Kspike/s. 本文提出的NoC路由器带宽可达0.24 spike/cycle,在100 MHz条件下每秒可以处理24 M 的脉冲,因此满足脑网络仿真的吞吐需求,并且可以将脑网络的仿真时间缩短约原来的1/1 000倍.我们基于该模型生成了5 015个神经元的小网络和38 586个神经元的大网络用于仿真实验. 图13(b)统计了2种脑网络规模下的延迟和能耗数据,并与其他几种多播NoC进行比较. 得益于ReB路由的脑启发多播特性和突触连接索引方法,它在不同规模的分层皮质网络下都具有较低的传输延迟和能耗开销,可以有效支持脑网络应用下的脉冲信息传输.
3.4 与相关先进工作的比较
本文提出的路由器通过Verilog HDL进行实现,并基于SMIC 28nm CMOS工艺完成综合. 表3显示了ReB NoC与其他先前工作中NoC的比较. 表3的上半部分列出了一些专用的NoC设计,它们通常用于一般片上系统(system on chip,SoC)中的数据传输需求,典型的应用场景包括处理器间的同步信号、缓存一致性协议等;表3的下半部分展示了一些用于神经形态平台的NoC设计,它们专注于满足神经网络计算的特定需求,通常包括SNN和ANN这2种应用场景,比如清华的异构融合类脑芯片Tianjic[13]在硬件上融合这2种神经网络的实现. 神经形态平台NoC上传输的数据类型包括脉冲数据和非脉冲数据,其设计核心在于高效的数据并行传输和多种数据类型的支持. 本文的ReB 路由器的带宽可以达到0.24 spike/cycle, 硬件实现面积仅为0.014 mm2. 此外,只有ReB路由策略支持混合模式的脉冲数据传输,并且具备无死锁和拥塞感知的自适应路由机制.
表 3 ReB与相关先进工作对比Table 3. Comparison of ReB and related advanced workNoC 类型 工艺/nm 拓扑结构 路由算法 有无死锁避免 带宽/(spike/cycle) 面积/mm2 MC-3DR(2019)[17] 专用NoC设计 45 3D mesh 混合模式,固定路由 × 0.250 0.031 TLAM(2023)[14] 45 分层结构 混合模式,固定路由 √ 0.086 0.070 Tianjic(2019)[13] 神经形态平
台的NoC设计28 2D mesh 单播,固定路由 √ - 0.008 LAMR(2022)[16] 28 2D mesh 混合模式,自适应路由 × 0.016 - MerLin(2023)[32] 55 Fullerene-60 混合模式,自适应路由 × 0.200 0.013 ReB(本文) 28 2D mesh 混合模式,自适应路由 √ 0.240 0.014 4. 结 论
本文提出了一种针对大规模神经形态平台设计的脑启发NoC方案. 所提出的无死锁ReB路由策略支持混合模式的传输和拥塞感知的路径选择. 突触连接索引方法为NoC架构提供了更好的可扩展性和更低的功耗. 实验结果表明,ReB NoC在延迟、吞吐量、信息成本和功耗之间实现了良好的平衡,为神经形态平台提供了一种更具生物学合理性的神经通信策略. 在未来,我们将基于该NoC研究更大规模的多层次众核互联架构和通信协议,能够容纳多种神经网络并支持任意神经元之间互联.
作者贡献声明:王智超负责方案设计、实验验证、论文撰写;陈亮负责理论指导、架构设计和论文修改;李千鹏负责论文修改,设计代码撰写;陈奥新负责论文修改,实验数据记录;刘昕负责设计代码;宋文娜负责实验验证.
-
表 1 本文所用所有方法缩写名称总结
Table 1 A summary of All Abbreviations Method Names Used in This Paper
大规模多视图子空间聚类(large-scale multi-view subspace clustering,LMVSC)[4] 可扩展且无需参数的多视图图聚类(scalable and parameter-free multi-view graph clustering,SFMC)[6] 基于张量二部图学习的多视图聚类(tensorized bipartite graph learning for multi-view clustering,TBGL)[7] 具有多个锚图的高效多视图K-means聚类(efficient multi-view K-means clustering method with multiple anchor graphs,EMKMC)[8] 基于多二部图的可扩展多视图聚类(scalable multi-view clustering via many bipartite graphs,SMCMB)[9] 超可扩展的集成聚类(ultra-scalable ensemble clustering,U-SENC)[10] 面向可扩展多视图聚类的灵活多样锚图融合(flexible and diverse anchor graph fusion for scalable multi-view clustering,FDAGF)[12] 通过集成方法实现快速多视图聚类(fast multi-view clustering via ensembles,FastMICE)[14] 单遍多视图聚类(one-pass multi-view clustering,OPMC)[16] 多视图结构图学习(multi-view structured graph learning,MSGL)[17] 快速且无需参数的多视图聚类(fast parameter-free multi-view subspace clustering,FPMVS)[18] 高效单遍多视图子空间聚类(efficient one-pass multi-view subspace clustering,EOMSC)[19] 统一且离散的二部图学习(Unified and discrete bipartite graph learning,UDBGL)[20] 高效单遍的后融合多视图聚类(efficient one-pass late fusion multi-view Clustering,OPLFMVC)[21] 通过非负正交分解的快速多视图聚类模型(fast multi-view clustering model via nonnegative and orthogonal factorization,FMCNOF)[22] 表 2 相关方法属性对比
Table 2 Comparison of Related Works
对比方法 年份 锚点集构建学习 锚点图构建学习 聚类器构建学习 视图独立 视图共享 视图一致 视图独立 视图共享 视图一致 视图独立 视图共享 视图一致 LMVSC[4] 2020 √ √ √ SFMC[6] 2022 √ √ √ TBGL[7] 2023 √ √ √ SMCMB[9] 2024 √ √ √ √ U-SENC[10] 2020 √ √ √ √ FDAGF[12] 2023 √ √ √ FastMICE[14] 2023 √ √ √ √ OPMC[16] 2021 √ MSGL[17] 2022 √ √ FPMVS[18] 2021 √ √ EOMSC[19] 2022 √ √ UDBGL[20] 2024 √ √ √ OPLFMVC[21] 2021 √ √ √ √ DLMC(本文) √ √ √ √ √ √ 表 3 数据集描述
Table 3 Dataset Description
编号 数据集 样本/个 视图 类别 维度 D1 NEWSGROUPS 500 3 5 2 000, 2 000, 2 000 D2 BBCSPORT 544 2 5 3 183, 3 203 D3 WEBKB 1 051 2 2 1 840, 3 000 D4 REUTERS 1 200 5 6 2 000, 2 000, 2 000, 2 000, 2 000 D5 100LEAVES 1 600 3 100 64, 64, 64 D6 BDGP 2 500 3 5 1 000, 500, 250 D7 CCV 6 773 3 20 20, 20, 20 D8 MNIST 10 000 3 10 30, 9, 30 D9 ALOI100 10 800 4 100 77, 13, 64, 125 D10 AWA 30 475 6 50 2 688, 2 000, 252, 2 000, 2 000, 2 000 D11 YTF10 38 654 4 10 944, 576, 512, 640 D12 YOUTUBEFACE 101 499 5 31 64, 512, 64, 647, 838 D13 ALOI1000 110 250 4 1 000 125, 77, 113, 64 表 4 对应13个数据集的4个平衡性指标值
Table 4 Corresponds to 4 Balance Index Values for 13 Datasets
编号 NE SDCS RME Max/Min D1 1.00 0.00 1.00 1.00 D2 0.94 54.36 0.56 3.16 D3 0.76 417.90 0.44 3.57 D4 1.00 0.00 1.00 1.00 D5 1.00 0.00 1.00 1.00 D6 1.00 0.00 1.00 1.00 D7 0.98 134.24 0.31 6.73 D8 1.00 0.00 1.00 1.00 D9 1.00 0.00 1.00 1.00 D10 0.98 253.59 0.15 12.70 D11 0.98 1 237.17 0.70 2.25 D12 0.89 4 432.03 0.46 18.10 D13 1.00 1.30 0.98 1.03 表 5 DLMC与所有对比方法在13个基准数据集上的ACC值
Table 5 DLMC and All Comparison Methods on 13 Benchmark Datasets for ACC Values
% 对比方法 D1 D2 D3 D4 D5 D6 D7 D8 D9 D10 D11 D12 D13 U-SENC 93.66 93.57 83.54 23.93 80.93 47.00 17.74 69.84 68.22 7.85 78.38 12.76 39.64 LMVSC 82.40 94.30 88.20 43.42 64.38 49.28 16.86 68.61 56.61 6.73 69.12 12.77 42.19 OPMC 83.74 76.54 92.40 43.67 54.70 45.23 15.82 56.38 49.75 9.34 69.23 15.21 23.62 FPMVS 72.30 40.63 94.96 44.33 33.01 42.59 24.32 81.64 31.53 8.88 71.49 23.35 - OPLFMVC 66.40 80.88 94.10 30.42 80.25 52.04 17.70 72.57 72.27 8.51 73.41 19.98 49.75 EOMSC 68.60 38.42 89.44 45.92 39.88 42.08 22.52 64.91 31.63 8.74 81.19 26.66 - MSGL 51.60 77.57 77.35 31.83 14.13 38.64 14.81 44.49 13.82 6.96 68.08 26.63 - SFMC 76.20 70.22 78.21 23.92 70.25 23.28 14.53 66.86 67.20 3.90 68.47 N/A N/A EMKMC 87.40 91.18 93.34 41.33 45.56 49.88 15.86 64.95 45.54 6.00 74.23 21.60 28.51 TBGL 32.20 74.26 80.59 24.92 63.06 20.08 10.75 75.48 65.44 N/A N/A N/A N/A FDAGF 93.60 86.76 94.58 52.67 60.19 54.08 19.99 67.24 53.51 7.44 82.35 15.12 42.11 FastMICE 70.96 94.05 94.90 28.68 83.53 43.45 20.10 78.71 75.12 8.68 77.28 20.79 47.74 UDBGL 51.60 49.63 91.82 31.17 63.50 39.44 20.74 70.99 58.02 8.36 60.35 24.85 - SMCMB 89.20 92.87 96.67 51.50 83.00 49.68 19.92 75.41 75.57 9.01 81.86 23.15 - DLMC(本文) 94.40 95.59 98.19 57.83 89.69 57.68 24.46 82.28 77.35 9.89 82.83 30.30 58.42 加粗字体表示最佳结果;‘N/A’表示由于内存不足导致算法在该数据集上无法运行;‘-’表示由于运行时间过长(超48h未完成)而终止了算法的运行. 表 6 DLMC 与所有对比方法在 13 个基准数据集上的 NMI 值
Table 6 DLMC and All Comparison Methods on 13 Benchmark Datasets for NMI Values
% 对比方法 D1 D2 D3 D4 D5 D6 D7 D8 D9 D10 D11 D12 D13 U-SENC 82.49 81.46 18.61 9.71 90.53 27.45 13.71 66.40 77.98 9.14 82.81 11.45 67.14 LMVSC 60.54 83.92 33.49 28.07 83.25 28.01 11.87 63.02 74.95 7.35 74.43 5.27 73.34 OPMC 73.57 66.87 62.24 25.85 76.65 25.89 12.88 52.70 68.84 11.77 74.13 13.05 58.78 FPMVS 57.06 10.37 66.69 20.64 61.90 19.73 18.59 67.78 55.51 9.11 76.86 21.87 - OPLFMVC 53.71 66.36 59.47 15.02 90.86 30.47 13.38 64.48 83.78 7.72 76.21 17.62 77.81 EOMSC 60.42 17.03 36.93 24.26 66.24 14.45 15.36 56.16 55.64 8.94 81.81 9.64 - MSGL 37.57 61.26 16.33 15.18 41.34 11.48 8.67 41.80 36.70 7.64 73.44 0.07 - SFMC 70.79 60.66 0.28 11.28 82.70 4.26 8.13 61.89 69.21 0.16 76.35 N/A N/A EMKMC 69.13 78.13 58.50 18.13 70.29 27.45 11.06 59.43 64.74 5.03 75.88 18.82 63.50 TBGL 9.35 51.82 7.37 11.30 70.50 0.16 2.05 60.93 68.80 N/A N/A N/A N/A FDAGF 82.71 77.22 60.11 34.57 81.13 35.35 16.82 60.02 70.86 6.91 83.36 12.43 71.79 FastMICE 52.82 85.43 63.36 15.31 93.45 22.20 15.44 68.44 83.36 10.34 81.58 17.37 73.25 UDBGL 26.28 19.40 52.38 10.29 78.80 16.85 16.08 61.21 68.58 8.92 67.40 16.47 - SMCMB 74.07 84.18 73.15 29.51 92.13 29.70 15.53 63.67 83.20 10.34 85.46 19.56 - DLMC(本文) 83.49 86.57 82.81 35.35 95.78 36.48 18.94 70.13 88.54 11.51 85.59 25.74 80.35 加粗字体表示最佳结果;‘N/A’表示由于内存不足导致算法在该数据集上无法运行;‘-’表示由于运行时间过长(超48h未完成)而终止了算法的运行. 表 7 DLMC与所有对比方法在13个基准数据集上的ARI值
Table 7 DLMC and All Comparison Methods on 13 Benchmark Datasets for ARI Values
% 对比方法 D1 D2 D3 D4 D5 D6 D7 D8 D9 D10 D11 D12 D13 U-SENC 84.74 83.58 29.10 1.96 73.95 21.63 5.41 57.35 55.87 1.78 72.31 1.82 26.65 LMVSC 59.83 84.62 47.85 17.97 54.33 24.74 5.05 52.35 38.97 1.11 60.92 0.96 24.93 OPMC 72.41 64.46 74.47 17.71 44.48 20.61 4.20 41.10 44.95 2.49 60.83 2.22 11.81 FPMVS 55.58 10.28 79.40 16.91 19.96 15.91 8.52 64.84 16.07 2.77 65.04 5.83 - OPLFMVC 46.68 68.99 75.57 4.22 74.68 29.59 4.90 56.34 65.05 2.01 66.69 3.41 36.01 EOMSC 56.34 10.04 56.49 18.41 20.22 9.79 7.09 49.15 16.09 2.53 71.37 2.36 - MSGL 28.16 56.12 27.45 9.12 2.40 8.64 2.91 27.76 7.86 1.27 58.42 0.06 - SFMC 66.43 51.19 0.49 2.18 40.33 0.62 3.22 45.37 10.44 0.00 58.22 N/A N/A EMKMC 70.51 78.77 73.34 13.63 31.55 24.43 3.92 49.33 33.82 0.85 66.49 4.67 17.21 TBGL 9.32 45.72 12.40 1.90 10.57 0.00 -0.05 56.81 10.40 N/A N/A N/A N/A FDAGF 84.62 81.13 76.74 23.13 49.91 29.41 6.70 51.36 30.16 1.09 76.94 1.99 23.24 FastMICE 42.42 86.32 78.48 5.82 79.96 18.40 6.76 63.11 66.30 2.18 71.00 4.01 33.71 UDBGL 23.34 24.25 67.93 7.15 41.14 12.55 6.23 53.06 31.90 1.83 51.92 3.35 - SMCMB 74.57 87.11 85.82 22.14 77.77 23.31 6.32 56.84 65.40 2.44 77.96 4.94 - DLMC(本文) 86.51 89.40 92.03 27.72 87.03 33.53 8.70 66.52 68.66 2.69 79.60 7.29 36.26 加粗字体表示最佳结果;‘N/A’表示由于内存不足导致算法在该数据集上无法运行;‘-’表示由于运行时间过长(超48h未完成)而终止了算法的运行. 表 8 DLMC与所有对比方法在13个基准数据集上的Purity值 %
Table 8 DLMC and All Comparison Methods on 13 Benchmark Datasets for Purity Values
% 对比方法 D1 D2 D3 D4 D5 D6 D7 D8 D9 D10 D11 D12 D13 U-SENC 93.66 93.57 83.54 23.93 80.93 47.00 17.74 69.84 68.22 7.85 78.38 12.76 39.64 LMVSC 82.40 94.30 88.20 43.42 64.38 49.28 16.86 68.61 56.61 6.73 69.12 12.77 42.19 OPMC 83.74 76.54 92.40 43.67 54.70 45.23 15.82 56.38 49.75 9.34 69.23 15.21 23.62 FPMVS 72.30 40.63 94.96 44.33 33.01 42.59 24.32 81.64 31.53 8.88 71.49 23.35 - OPLFMVC 66.40 80.88 94.10 30.42 80.25 52.04 17.70 72.57 72.27 8.51 73.41 19.98 49.75 EOMSC 68.60 38.42 89.44 45.92 39.88 42.08 22.52 64.91 31.63 8.74 81.19 26.66 - MSGL 51.60 77.57 77.35 31.83 14.13 38.64 14.81 44.49 13.82 6.96 68.08 26.63 - SFMC 76.20 70.22 78.21 23.92 70.25 23.28 14.53 66.86 67.20 3.90 68.47 N/A N/A EMKMC 87.40 91.18 93.34 41.33 45.56 49.88 15.86 64.95 45.54 6.00 74.23 21.60 28.51 TBGL 32.20 74.26 80.59 24.92 63.06 20.08 10.75 75.48 65.44 N/A N/A N/A N/A FDAGF 93.60 86.76 94.58 52.67 60.19 54.08 19.99 67.24 53.51 7.44 82.35 15.12 42.11 FastMICE 70.96 94.05 94.90 28.68 83.53 43.45 20.10 78.71 75.12 8.68 77.28 20.79 47.74 UDBGL 51.60 49.63 91.82 31.17 63.50 39.44 20.74 70.99 58.02 8.36 60.35 24.85 - SMCMB 89.20 92.87 96.67 51.50 83.00 49.68 19.92 75.41 75.57 9.01 81.86 23.15 - DLMC(本文) 94.40 95.59 98.19 57.83 89.69 57.68 24.46 82.28 77.35 9.89 82.83 30.30 58.42 加粗字体表示最佳结果;‘N/A’表示由于内存不足导致算法在该数据集上无法运行;‘-’表示由于运行时间过长(超48h未完成)而终止了算法的运行. 表 9 不同视图下锚点数目一致与不一致对DLMC的影响
Table 9 The Impact of the Consistency or Inconsistency of the Number of Anchors on DLMC in Different Views
评价指标 方法 D1 D2 D4 D5 D6 D7 D8 ACC DLMC 0.9440 0.9559 0.5783 0.5768 0.5768 0.2446 0.8228 DLMC-d 0.9580 0.9688 0.6283 0.9138 0.5928 0.2494 0.8350 NMI DLMC 0.8349 0.8657 0.3535 0.3648 0.3648 0.1894 0.7013 DLMC-d 0.8756 0.8969 0.4080 0.9667 0.3857 0.2065 0.7136 AMI DLMC 0.8332 0.8676 0.3620 0.3643 0.3643 0.1838 0.7031 DLMC-d 0.8745 0.8989 0.4217 0.9491 0.3870 0.2012 0.7145 ARI DLMC 0.8651 0.8940 0.2772 0.3353 0.3353 0.0870 0.6652 DLMC-d 0.8972 0.9179 0.3267 0.8947 0.3284 0.0884 0.6824 Purity DLMC 0.9440 0.9559 0.5783 0.5984 0.5984 0.2678 0.8228 DLMC-d 0.9580 0.9688 0.6283 0.9325 0.5928 0.2774 0.8350 表 10 DLMC与6种对比方法在对D6和D7数据集上添加不同噪声后的NMI值
Table 10 DLMC and Six Comparative Methods’ NMI Value on the D6 and D7 Datasets after the Introduction of Different Noise Levels
% 数据集 USENC OPMC MSGL EMKMC FMICE SMCMB DLMC D6 + 10%SP 25.0 ± 9.3 31.5 ± 4.2 25.0 ± 3.5 18.0 ± 11.3 27.1 ± 4.2 19.5 ± 5.3 33.7 ± 3.7 D6 + 20%SP 22.3 ± 11.5 33.2 ± 3.5 25.9 ± 2.6 16.5 ± 10.7 29.9 ± 6.6 19.7 ± 6.2 28.8 ± 3.0 D6 + 30%SP 28.8 ± 12.1 31.9 ± 4.8 28.8 ± 1.9 16.8 ± 11.3 26.2 ± 8.1 20.2 ± 5.9 31.4 ± 2.2 D6 + 40%SP 22.6 ± 11.3 33.1 ± 3.6 30.7 ± 1.9 15.1 ± 7.3 28.7 ± 3.1 20.2 ± 6.0 32.6 ± 3.4 D6 + 10%GS 19.5 ± 11.9 31.7 ± 3.8 25.7 ± 0.9 16.9 ± 11.5 24.7 ± 6.6 17.8 ± 6.1 27.9 ± 4.3 D6 + 20%GS 25.9 ± 10.7 32.5 ± 3.4 28.1 ± 1.1 18.2 ± 10.3 25.6 ± 9.1 19.3 ± 7.4 30.1 ± 4.9 D6 + 30%GS 25.7 ± 13.2 31.4 ± 4.5 25.8 ± 0.7 18.2 ± 10.1 26.1 ± 7.1 20.2 ± 7.5 24.6 ± 3.9 D6 + 40%GS 25.0 ± 9.3 32.7 ± 3.3 28.8 ± 3.1 18.0 ± 11.3 31.1 ± 3.2 19.1 ± 5.2 29.5 ± 5.4 D7 + 10%SP 14.7 ± 3.5 13.2 ± 0.5 3.2 ± 3.8 9.3 ± 1.4 15.3 ± 2.1 13.1 ± 2.0 16.7 ± 1.1 D7 + 20%SP 13.1 ± 3.0 13.2 ± 0.4 5.8 ± 3.9 9.2 ± 0.7 16.1 ± 1.7 13.0 ± 1.8 16.6 ± 1.1 D7 + 30%SP 12.9 ± 3.5 13.1 ± 0.4 6.5 ± 4.4 9.0 ± 1.2 16.2 ± 0.6 12.8 ± 2.0 16.3 ± 1.0 D7 + 40%SP 11.4 ± 1.6 13.2 ± 0.4 5.8 ± 3.9 8.9 ± 1.0 15.6 ± 1.1 12.9 ± 1.9 16.2 ± 1.4 D7 + 10%GS 13.5 ± 3.3 13.2 ± 0.7 5.9 ± 4.0 8.8 ± 1.0 15.2 ± 1.3 12.9 ± 2.0 17.3 ± 1.0 D7 + 20%GS 11.6 ± 2.9 12.9 ± 0.6 3.1 ± 3.5 9.1 ± 1.2 15.7 ± 1.3 12.9 ± 2.0 17.0 ± 1.1 D7 + 30%GS 11.6 ± 2.5 13.1 ± 0.6 5.7 ± 3.7 9.3 ± 0.9 16.0 ± 1.1 12.8 ± 1.8 16.6 ± 1.1 D7 + 40%GS 14.6 ± 4.0 12.7 ± 0.5 3.7 ± 4.7 9.2 ± 1.0 15.4 ± 1.8 13.0 ± 1.8 16.8 ± 1.0 表 11 DLMC与6种对比方法在对D6和D7数据集上添加不同噪声后的ACC值
Table 11 DLMC and Six Comparative Methods’ ACC Value on the D6 and D7 Datasets after the Introduction of Different Noise Levels
% 数据集 USENC OPMC MSGL EMKMC FMICE SMCMB DLMC D6 + 10%SP 46.8 ± 8.2 47.9 ± 3.5 45.5 ± 4.2 41.2 ± 11.3 48.4 ± 3.6 41.0 ± 4.7 54.4 ± 1.8 D6 + 20%SP 44.2 ± 9.9 49.0 ± 2.7 44.3 ± 3.6 39.2 ± 10.6 47.7 ± 5.6 40.9 ± 5.6 51.4 ± 4.1 D6 + 30%SP 49.2 ± 9.5 47.7 ± 4.1 50.6 ± 2.8 39.0 ± 11.2 46.9 ± 6.9 41.2 ± 5.7 53.8 ± 2.0 D6 + 40%SP 43.2 ± 9.6 47.6 ± 4.2 51.2 ± 1.3 37.5 ± 9.2 48.7 ± 3.0 41.8 ± 5.9 52.9 ± 3.0 D6 + 10%GS 40.6 ± 9.1 47.9 ± 3.1 49.1 ± 1.1 40.4 ± 13.1 45.6 ± 6.1 40.5 ± 5.3 49.0 ± 3.9 D6 + 20%GS 43.8 ± 8.8 47.2 ± 4.1 50.3 ± 1.4 41.5 ± 11.2 46.6 ± 7.3 41.7 ± 6.2 51.1 ± 4.2 D6 + 30%GS 44.3 ± 10.9 47.4 ± 3.8 46.9 ± 1.2 41.6 ± 11.5 45.5 ± 5.5 42.2 ± 5.8 50.2 ± 4.8 D6 + 40%GS 46.8 ± 8.2 48.5 ± 3.4 49.4 ± 3.7 41.2 ± 11.3 50.2 ± 3.9 41.0 ± 4.9 51.0 ± 4.1 D7 + 10%SP 18.9 ± 3.6 15.8 ± 0.4 11.4 ± 1.5 14.1 ± 1.9 20.2 ± 2.1 17.3 ± 2.2 21.5 ± 0.8 D7 + 20%SP 17.2 ± 2.7 16.2 ± 0.5 13.0 ± 2.0 14.3 ± 0.8 20.8 ± 1.6 17.5 ± 2.2 21.7 ± 0.7 D7 + 30%SP 17.0 ± 3.1 16.0 ± 0.5 12.5 ± 1.9 14.2 ± 0.6 20.8 ± 0.7 17.2 ± 2.3 21.0 ± 0.7 D7 + 40%SP 15.4 ± 1.9 16.0 ± 0.5 13.7 ± 2.5 14.3 ± 1.2 20.0 ± 1.1 17.4 ± 2.3 21.4 ± 1.1 D7 + 10%GS 18.1 ± 2.8 16.0 ± 0.6 13.7 ± 2.6 14.2 ± 1.1 20.0 ± 1.0 17.4 ± 2.3 22.7 ± 0.6 D7 + 20%GS 15.8 ± 2.6 15.8 ± 0.6 11.9 ± 2.0 14.5 ± 1.3 20.3 ± 1.3 17.4 ± 2.3 21.7 ± 1.1 D7 + 30%GS 15.6 ± 2.3 16.0 ± 0.6 13.5 ± 2.5 14.3 ± 0.8 20.8 ± 1.2 17.4 ± 2.0 21.5 ± 0.5 D7 + 40%GS 18.4 ± 3.4 15.7 ± 0.4 11.7 ± 2.1 14.5 ± 0.6 20.0 ± 1.5 17.5 ± 2.1 21.7 ± 0.8 -
[1] Chao Guoqing, Sun Shiliang, Bi Jinbo. A survey on multiview clustering[J]. IEEE Transactions on Artificial Intelligence, 2021, 2(2): 146−168 doi: 10.1109/TAI.2021.3065894
[2] Cai Deng, Chen Xinlei. Large scale spectral clustering via landmark-based sparse representation[J]. IEEE Transactions on Cybernetics, 2014, 45(8): 1669−1680
[3] Nie Feiping, Wang Xiaoqian, Huang Heng. Clustering and projected clustering with adaptive neighbors[C]//Proc of the 20th ACM SIGKDD Int Conf on Knowledge Discovery and Data Mining. New York: ACM, 2014: 977−986
[4] Kang Zhao, Zhou Wangtao, Zhao Zhitong, et al. Large-scale multi-view subspace clustering in linear time[C]//Proc of the AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2020: 4412−4419
[5] Wang Siwei, Liu Xinwang, Liu Suyuan, et al. Align then fusion: Generalized large-scale multi-view clustering with anchor matching correspondences[J]. Advances in Neural Information Processing Systems, 2022, 35: 5882−5895
[6] Li Xuelong, Zhang Han, Wang Rong, et al. Multiview clustering: A scalable and parameter-free bipartite graph fusion method[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2022, 44(1): 330−344 doi: 10.1109/TPAMI.2020.3011148
[7] Wei Xia, Quanxue Gao, Wang Qianqian, et al. Tensorized bipartite graph learning for multi-view clustering[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2023, 45(4): 5187−5202. doi: 10.1109/TPAMI.2022.3187976
[8] Yang Ben, Zhang Xuetao, Li Zhongheng, et al. Efficient multi-view k-means clustering with multiple anchor graphs[J]. IEEE Transactions on Knowledge and Data Engineering, 2023, 35(7): 6887−6900
[9] Lao Jinghuan, Huang Dong, Wang Changdong, et al. Towards scalable multi-view clustering via joint learning of many bipartite graphs[J]. IEEE Transactions on Big Data, 2024, 10(1): 77−91 doi: 10.1109/TBDATA.2023.3325045
[10] Huang Dong, Wang Changdong, Wu Jiansheng, et al. Ultra-scalable spectral clustering and ensemble clustering[J]. IEEE Transactions on Knowledge and Data Engineering, 2020, 32(6): 1212−1226 doi: 10.1109/TKDE.2019.2903410
[11] Wei Zhu, Nie Feiping, Li Xuelong. Fast spectral clustering with efficient large graph construction[C]//Prof of the 2017 IEEE Int Conf on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE, 2017: 2492−2496
[12] Zhang Pei, Wang Siwei, Li Liang, et al. Let the data choose: Flexible and diverse anchor graph fusion for scalable multi-view clustering [C]//Proc of the AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2023: 11262−11269
[13] 于晓,刘慧,林毓秀,等. 一致性引导的自适应加权多视图聚类[J]. 计算机研究与发展,2022,59(7):1496−1508 doi: 10.7544/issn1000-1239.20210126 Yu Xiao, Liu Hui, Lin Yuxiu, et al. Consistency-guided adaptive weighted multi-view clustering[J]. Journal of Computer Research and Development, 2022, 59(7): 1496−1508 (in Chinese) doi: 10.7544/issn1000-1239.20210126
[14] Huang Dong, Wang Changdong, Lai Jianhuang. Fast multi-view clustering via ensembles: Towards scalability, superiority, and simplicity[J]. IEEE Transactions on Knowledge and Data Engineering, 2023, 35(11): 11388−11402 doi: 10.1109/TKDE.2023.3236698
[15] Zhou Peng, Du Liang, Liu Xinwang, et al. Partial clustering ensemble[J]. IEEE Transactions on Knowledge and Data Engineering, 2024, 36(5): 2096−2109 doi: 10.1109/TKDE.2023.3321913
[16] Liu Jiyuan, Liu Xinwang, Yang Yuexiang, et al. One-pass multi-view clustering for large-scale data[C]//Proc of the IEEE/CVF Int Conf on Computer Vision. Piscataway, NJ: IEEE, 2021: 12344−12353
[17] Kang Zhao, Lin Zhiping, Zhu Xiaofeng, et al. Structured graph learning for scalable subspace clustering: From single view to multiview[J]. IEEE Transactions on Cybernetics, 2022, 52(9): 8976−8986 doi: 10.1109/TCYB.2021.3061660
[18] Wang Siwei, Liu Xinwang, Zhu Xinzhong, et al. Fast parameter-free multi-view subspace clustering with consensus anchor guidance[J]. IE-EE Transactions on Image Processing, 2022, 31: 556−568 doi: 10.1109/TIP.2021.3131941
[19] Liu Suyuan, Wang Siwei, Zhang Pei, et al. Efficient one-pass multi-view subspace clustering with consensus anchors[C]//Proc of the AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2022: 7576−7584
[20] Fang Siguo, Huang Dong, Cai Xiaosha, et al. Efficient multi-view clustering via unified and discrete bipartite graph learning[J]. arXiv preprint, arXiv: 2209.04187, 2023
[21] Liu Xinwang, Liu Li, Liao Qing, et al. One pass late fusion multi-view clustering[C]//Prof of the Int Conf on Machine Learning. New York: ACM, 2021: 6850- 6859
[22] Yang Ben, Zhang Xuetao, Nie Feiping, et al. Fast multi-view clustering via nonnegative and orthogonal factorization[J]. IEEE Transactions on Image Processing, 2020, 30: 2575−2586
[23] Cai Xiao, Nie Feiping, Huang Heng. Multi-view k-means clustering on big data[C]//Prof of the 23rd Int Joint Conf on Artificial Intelligence. San Francisco, CA: Margan Kaufmann, 2013: 2598−2604
[24] Xu Jinglin, Han Junwei, Nie Feiping, et al. Re-weighted discriminatively embedded k-means for multi-view clustering[J]. IEEE Transactions on Image Processing, 2017, 26(6): 3016−3027 doi: 10.1109/TIP.2017.2665976
[25] Nie Feiping, Shi Shaojun, Li Xuelong. Auto-weighted multi-view co-clustering via fast matrix factorization[J]. Pattern Recognition, 2020, 102: 107207 doi: 10.1016/j.patcog.2020.107207
[26] Fred A L N, Jain A K. Combining multiple clusterings using evidence accumulation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2005, 27(6): 835−850 doi: 10.1109/TPAMI.2005.113
[27] Iam-On N, Boongoen T, Garrett S, et al. A link-based approach to the cluster ensemble problem[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(12): 2396−2409 doi: 10.1109/TPAMI.2011.84
[28] Tao Zhiqiang, Liu Hongfu, Li Sheng, et al. Robust spectral ensemble clustering[C]//Proc of the 25th ACM Int Conf on Information and Knowledge Management. New York: ACM, 2016: 367−376
[29] Huang Dong, Wang Changdong, Lai Jianhuang. Locally weightedensemble clustering[J]. IEEE Transactions on Cybernetics, 2017, 48(5): 1460−1473
[30] Topchy A, Jain A K, Punch W. Clustering ensembles: Models of consensus and weak partitions[J]. IEEE Transactions on Pattern Analysisand Machine Intelligence, 2005, 27(12): 1866−1881 doi: 10.1109/TPAMI.2005.237
[31] Bai Liang, Liang Jiye, Du Hangyuan. An information-theoretical framework for cluster ensemble[J]. IEEE Transactions on Knowledge and Data Engineering, 2019, 31(8): 1464−1477
[32] Strehl A, Ghosh J. Cluster ensembles—A knowledge reuse framework for combining multiple partitions[J]. Journal of Machine Learning Research, 2002, 3: 583−617
[33] Zhou Peng, Du Liang, Liu Xinwang, et al. Self-paced clustering ensemble[J]. IEEE Transactions on Neural Networks and Learning Systems, 2021, 32(4): 1497−1511 doi: 10.1109/TNNLS.2020.2984814
[34] Li Zhihui, Nie Feiping, Chang Xiaojun, et al. Balanced clustering via exclusive lasso: A pragmatic approach[C]//Proc of the AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2018: 3596−3603