-
摘要:
心电图(electrocardiogram, ECG)异常的自动检测是一个典型的多标签分类问题,训练分类器需要大量有高质量标签的样本. 但心电数据集异常标签经常缺失或错误,如何清洗弱标签得到干净的心电数据集是一个亟待解决的问题. 在一个标签完整且准确的示例数据集辅助下,提出一种基于异常特征模式 (abnormality-feature pattern, AFP) 的方法对弱标签心电数据进行标签清洗,以获取所有正确的异常标签. 清洗分2个阶段,即基于聚类的规则构造和基于迭代的标签清洗. 在第1阶段,通过狄利克雷过程混合模型(Dirichlet process mixture model, DPMM)聚类,识别每个异常标签对应的不同特征模式,进而构建异常发现规则、排除规则和1组二分类器. 在第2阶段,根据发现和排除规则辨识初始相关标签集,然后根据二分类器迭代扩展相关标签并排除不相关标签. AFP方法捕捉了示例数据集和弱标签数据集的共享特征模式,既应用了人的知识,又充分利用了正确标记的标签;同时,渐进地去除错误标签和填补缺失标签,保证了标签清洗的可靠性. 真实和模拟数据集上的实验证明了AFP方法的有效性.
Abstract:Automatic detection of electrocardiogram (ECG) abnormality is a typical multi-label classification problem, which heavily relies on sufficient samples with high-quality abnormality labels for model training. Unfortunately, we often face ECG datasets with partial and incorrect labels, so how to clean weakly-labelled datasets to obtain the clean datasets with all the correct abnormality labels is becoming a pressing concern. Under the assumption that we can have a small-sized example dataset with full and correct labels, we propose an abnormality-feature pattern (AFP) based method to automatically clean the weakly-labelled datasets, thus obtaining all the correct abnormality labels. The cleaning process proceeds with two stages, clustering-based rule construction and iteration-based label cleaning. During the first stage, we construct a set of label inclusion and exclusion rules and a set of binary discriminators by exploiting the different abnormality-feature patterns which are identified through Dirichlet process mixture model (DPMM) clustering. During the second stage, we first identify the relevant abnormalities according to the label inclusion and exclusion rules, and then refine the relevant abnormalities with iterations. AFP method takes advantage of the abnormality-feature patterns shared by the example dataset and weakly-labelled dataset, which is based on both the human intelligence and the correct label information from the weakly-labelled dataset. Further, the method stepwise removes the incorrect labels and fills in the missing ones with an iteration, thus ensuring a reliable cleaning process. The experiments on real and synthetic datasets prove the effectiveness of our method.
-
作为一个具有严格准入机制的去中心化的分布式账本,许可链经常被应用于企业间数据共享、管理、多方协作以及用户隐私保护等场景. 然而,与分布式数据库相比,区块链系统的吞吐率较低,扩展性也有限,很难满足现代产业对高频交易的需求. 为提高区块链系统的吞吐率和扩展性,一些将分片技术与区块链相结合的方案被提出. 已有的分片区块链方案,如Elastico[1]和OmniLedger[2],通常将整个网络划分为小的委员会(分片). 在理想情况下,每个交易仅访问单个分片,分片可并行处理交易,以实现系统执行性能成倍提高. 但由于跨片交易的存在,实现这种理想情况很困难. 跨片交易需要操作多个分片上的数据,这给系统设计带来了挑战. 一些工作,例如RapidChain[3]和Monoxide[4],通过在UTXO模型下提出了一种最终原子性技术来解决这个问题. 后续的工作,如AHL[5],Chainspace[6]和Byshard[7],则通过账户模型的基于协调者的两阶段提交(two-phase commit, 2PC)协议来处理这些交易.
目前,基于2PC协议的跨片交易执行需要涉及所有相关分片之间的多轮信息交互,并以阻塞的方式处理跨片交易. 特别是在实际基于分片的系统中,超过96%的交易是跨片交易,跨片交易的执行可能会因其性能不佳而导致区块链吞吐量下降. 本文进行了实验,展示了基于协调者的跨片交易执行的效率,当跨片交易率为30%时吞吐量减少了近67%,当跨片交易率为90%时吞吐量减少了80%. 此外,尽管区块链能够高效地处理低冲突负载,但在高冲突负载下性能会降低,这会进一步放大跨片交易的影响. 因此,对于以性能为主要目标的许可链,优化跨片交易的执行是一个紧迫的需求,以支持广泛的应用.
基于以上分析,多轮交互、阻塞和冲突被认为是制约跨片交易执行性能的关键因素. 在本文中,我们决定从2个方面对这一过程进行优化:首先,通过降低跨片交易执行期间的通信成本来提高效率;其次,通过容忍任意程度的冲突交易工作量来获得性能优势,从而为整个系统的吞吐量做出贡献. 综上所述,本文的主要贡献总结为3个方面:
1) 针对分片许可链场景,提出了一种无协调者的跨分片交易执行方法,通过基于交易序列号的单向通信进行处理,来提高跨片交易的执行效率;设计低通信开销的状态传输策略,保证片间传输状态数据的正确性.
2) 针对高冲突负载场景,提出了一种抗冲突的跨片交易执行优化方案,结合交易重排序技术和跨片交易执行技术,以提高系统在高冲突负载下交易执行的效率,并优化跨片交易执行中的状态传输,以缩短跨片交易响应时间.
3) 实现了一个集成上述技术的原型系统,并在不同的工作负载下进行实验,实验结果表明该原型系统胜过其他协议的系统.
1. 相关工作
1.1 确定性执行策略
传统的数据库领域中有许多关于确定性执行的研究. BOMH[8]将并发控制与事务执行解耦,通过类似于MVCC 方式对交易并发控制. 在并发控制层维护一个多版本的链表,根据事务集的读写关系,直接确定事务执行时可见的快照版本. 在执行层,事务寻找执行所依赖的快照版本,并将执行后的结果填入最新快照版本中. 若事务执行时发现了所依赖的快照版本尚未生成,则系统尝试递归处理该事务,直到发现所需的快照版本. 基于BOMH,PWV[9]对事务的读可见进行了进一步的优化. PWV将一个事务分成多个子交易,并寻找这些子交易的提交节点,保证提交节点之前不会出现逻辑上的交易中止,这使得某些事务的写集可以在其提交之前被其他事务看到,而无需等待被提交.
Calvin[10]则通过锁机制来并发处理交易,主要分为排序层、调度层和存储层. 排序层主要负责给事务分配序列号;调度层根据分配的序列号对事务进行冲突检测并上锁,尽可能保证高效的事务并发效率;最后将执行后的数据写入存储层. Calvin在执行事务前需要检测其读写集,这给事务处理带来了一些局限性. 而Aria[11]提出了一种不需要预处理阶段的确定性执行策略. 在执行阶段,Aria基于相同快照并发执行一批交易,并把写集保存在本地. 在提交阶段,它根据交易序列号以确定的顺序提交交易. 此外,该工作还提出了一个优化方案,旨在降低交易的中止率,获取更高的系统吞吐.
总之,在确定性数据库中,每个节点都会以确定的方式执行同一组有序的事务,并将数据库从相同的初始状态转换为相同的最终状态. 每个事务在传递给节点之前都已被分配了一个序列值,基于这个序列值,不同的节点无需相互协调就能保持执行结果的一致性. 为了实现节点间的确定性的并发处理,主流的并发控制协议主要采用了有序锁和交易依赖图这2种方法来保证确定性.
更重要的是,区块链系统要求交易的执行是确定的,因此数据库的确定性执行为区块链的执行优化提供了参考. Dickerson等人[12]将智能合约执行与并发控制相结合,矿工节点通过软件事务内存(software transactional memory, STM)并行执行智能合约. 该方法与数据库常用两阶段锁原理类似,智能合约访问一个状态数据时,需要先获得该状态对应的一个抽象锁,并填写好回退日志方便交易中止时回退,并最终将执行顺序以happen-before图的方式广播给验证者以验证结果. 在验证阶段,所有验证节点根据矿工传来的可串行化顺序和happen-before图来获得主节点中每一个交易获得锁的顺序,以此作为验证交易的顺序. 最终,验证节点可以确定地并发执行该任务,并检测最终状态是否与矿工节点一致. 而在Anjana[13]的工作中,矿工节点采用并发度更高的OCC协议来处理交易,并根据执行结果生成一个交易拓扑图. 验证节点根据收到的交易和拓扑顺序来验证交易,保证验证的结果和矿工执行结果相同.
MVTO[14]方案借鉴了BOMH的思想,将一个事务切分成多个子交易,利用矿工节点生成的交易写集来构建记录各个版本数据信息的链式数据结构,即版本链. 通过版本链,系统能够并发地、确定性地重新验证交易,从而提高了区块链系统的验证效率. PEEP[15]提出了一个针对许可区块链系统的并行执行引擎,该引擎允许交易在逻辑上并发执行,并且在底层存储层面也能并发更新存储在状态树的叶子节点的状态数据块.
Jin等人[16]提出了一个高效的智能合约执行框架,即2PX. 针对主节点执行阶段,2PX 提出了Batch OCC协议,将数据库中常用的乐观并发控制协议应用于智能合约处理的主阶段中,赋予了矿工节点并发执行交易的能力. 主节点会在交易的读阶段结束后生成该轮交易的冲突图. 待执行完区块内所有交易之后,主节点会生成一个反映交易依赖关系的拓扑图,然后将其与新区块一起广播给验证节点. 由于传输的交易依赖图包含主节点执行交易时读入或写入的具体数值,主节点根据图切分算法将依赖图切分成多个子图以提高验证节点的验证效率. 同时,该图切分策略将传输代价更大的边连接的交易节点放在同一个子图中,极大程度地减少网络传输的开销,进一步提高了系统性能.
1.2 区块链分片技术
区块链分片技术通过将节点划分为多个分片,来提高区块链系统的吞吐量和处理速度. 最早的基于公有链设计的分片系统Elastico[1]将整个网络分为多个分片,要求所有节点计算PoW的验证字段,并且根据提交的结果决定该节点将被分配到的分片. 这些分片之间相互独立,可以并行地进行交易处理,有效地提高了整个系统的吞吐量. 由于每个分片的规模较小,分片内部则运行经典的BFT 共识协议. 因此,Elastico系统的吞吐量可以随着节点的增加而提升,近乎完成了线性扩展;此外,其灵活的分片划分规则避免了跨分片通信,降低了通信复杂度. 但同时,频繁的分片划分仍然会造成较大的系统开销,尤其是在复杂且庞大的业务场景下,其可能会成为主要的性能瓶颈. 分片区块链仍然需要更高效的方法来保证数据的一致性和处理跨片交易.
2018年,OmniLedger[2]提出了一种跨新型的跨片交易原子提交协议Atomix,保证每个交易被完全提交或最终取消. Atomix授权客户端利用锁机制来协调分片之间处理跨片交易,这使得分片之间无需直接通信,保持了简单的分片工作逻辑. 以UTXO 账户系统为例,第一阶段,客户端首先会生成一笔跨片交易,再将该交易发送给与其输入相关的分片. 每个相关分片检测相关输入是否合法,若检测通过,则记录输出状态,向客户端返回处理结果. 当客户端收到了所有分片的消息,该协议进入第二阶段,即将提交跨片交易请求传送至相关分片. 若任意一个相关分片取消了该笔交易,客户端也会向相关分片返回撤销交易的请求,以此来保证交易的一致性. 但是,由于该协议由客户端驱动,在处理跨片交易的过程中,客户端被要求不能离线;同时,该协议的性能受限于客户端本身的性能,容易陷入单点瓶颈问题.
因此,秉承“轻客户端”的设计原则,AHL[5] 则通过结合两阶段锁(two-phase locking, 2PL)和两阶段提交协议(two phase commit, 2PC)来处理跨片交易. 与Elastico类似,AHL 通过对比节点生成的随机数将整个网络划分为多个分片,分片内部采用将TEE与PBFT算法相结合的共识协议,所有协议也都由该协议得出. 在处理跨片交易时,选择一个分片作为2PC 协调者,称其为参考分片. 第一阶段,参考分片向所有相关分片发送准备请求,并收集所有分片的返回结果. 第二阶段,参考分片会根据上个阶段投票结果来决定交易的提交或者中止,最后同样地把处理结果返回给各个分片.
分片架构Chainspace[6]通过分片之间新的分布式原子提交协议S-BAC,来处理跨片交易. 该方法根据交易模拟执行的结果标记与其他交易的冲突,将冲突信息发送到相关分片,然后每个分片通过冲突信息解决交易之间的冲突关系,最后将交易执行并提交至本地中. 从协议实现的过程来看,S-BAC 协议结合了BFT 协议与2PC 协议的特点,能够在拜占庭环境下保证片间交易的一致. 但AHL 与Chainspace都是针对单一系统设计的分片方法,它们无法灵活地适应复杂的业务场景与多变的需求.
于是,Byshard[7]提出了一种弹性的分片系统框架,以支持更加灵活的数据管理. 该框架基于2PC 和2PL 技术,设计了3种跨片协调方法和4种执行方法,提供各种隔离级别的服务,能够适用于在拜占庭环境下的分布式系统. Byshard通过结合其所设计的跨片协调方法和执行方法,得到了18 种实用的协议,以满足不同场景下对吞吐量、隔离级别、延迟和中止率等性能特征的需求. 此外,该框架支持AHL和Chainspace 等现有工作的实现.
SharPer[17]是一个用于许可区块链的分片架构,不同于上述基于单一协调者的工作,它通过片间共识支持在CTF 和BTF 情况下的跨片交易确定性并发执行. 该工作解决了跨片交易可能出现的交易冲突、死锁、主节点故障的问题. 主节点收到客户端传来的交易后,将主节点在该笔交易设置一个序列号,广播给所有的相关节点. 分片从节点接收主节点传来的消息后,验证序号和交易内容,无需与该节点所在的分片共识,各个节点直接将决策结果返回主节点. 当主节点收到并验证来自每个分片的f + 1个“接受”消息后,向所有涉及交易的分片广播“提交”消息. 最后,主节点向客户端返回结果,相关的分片收到消息后将本地交易提交.
跨分片共识协议被广泛应用来解决跨片交易执行的问题,但同时也引入了大量的片间交互,延长了跨片交易的提交时间. 因此,一些研究人员开始探索更高效的分片技术. 其中,基于UTXO 账户模型的RapidChain[3]提出了一种新的跨片交易处理机制. 该机制首先将一笔多输入、多输出的跨片交易分解成多笔单进、单出的子交易. 由于这些子交易只有一个输入和输出,分片在处理相关子交易时只需验证本地输入是否有效,省去了分片之间互相验证的开销. 该方法通过将交易重新划分,有效地减少网络开销,提高跨片交易的处理效率.
Monoxide[4]是一种针对公有链场景的分片技术,它将节点按照网络分布来划分多个子网络,并将每个用户钱包地址的前k位映射到相应的子网络. 为了解决跨片交易问题,Monoxide 将一笔跨片交易拆分为许多内部交易和中继交易,其中内部交易直接在片内执行,而中继交易以异步的方式在其他分片执行. 具体地,当处理一笔跨片转账交易时,转账账户所在的子网络会在本分片共识并执行该交易,然后该子网会生成一笔中继交易并将其传送至收款账户所在子网共识并执行,这有效地保证了交易的最终原子性. 这种方式避免了分片间互相验证的开销,使得跨片交易更加高效.
BrokerChain[18]引入了“市商账户”来协调处理跨片交易,以达到降低跨片交易延迟的目的. “市商账户”会以相同的账户地址被划分至多个不同的分片. 在处理跨片交易时,BrokerChain会将该交易划分为2个与市商账户相关的片内交易. 由于一个市商账户在不同分片上都维护相同的地址,转账和收款账户仅需要与本分片内的相同市商账户交互即可完成跨片交易的执行. 该方法能够有效地降低执行跨片交易的开销,也缓解了分片负载不均衡的问题.
但是方法Monoxide和BrokerChain需要执行来自跨片交易划分的子交易,这会产生额外的执行成本. 后来,Pyramid[19]设计了一个层级化的分片系统,该分片系统允许一些复合分片维护多个分片存储的数据. 如此,一些跨片交易可以在复合分片中转换为片内交易,并且可以在一轮交互中提交. 总的来说,Pyramid 通过牺牲一定的存储来极大程度地提高了系统性能.
2. 无协调者的跨片交易执行
传统的分片区块链的跨片交易处理方法会引入多轮片间通信来保证交易的原子性和一致性. 以基于两阶段提交共识协议的分片区块链系统为例,首先,系统会选出一个分片担任共识协议中的协调者角色. 在协调者分片的帮助下,系统可以通过2轮通信来保证跨片交易在所有分片成功提交,但这会导致大量的网络开销和极高的交易延迟. 其次,系统不仅需要花费额外的资源去维护协调者分片,而且面临协调者带来的单点瓶颈问题. 因此,为了解决上述问题,本节基于以太坊执行范式,提出并详细介绍了一种无需协调者的高效跨片交易执行方法.
2.1 基本定义
本节介绍了本文执行方法依托的分片系统架构,并对跨片交易问题进行了形式化的定义与描述. 表1列出了本文出现的重要符号.
表 1 符号表Table 1. Symbol Table符号 符号描述 符号 符号描述 Ti 标号为i的交易 ES 系统分片 R(Ti) 交易Ti的读集 W(Ti) 交易Ti的写集 TS 传输分片 US 更新分片 Nt TS中节点集合 Writer(Ti) Ti的US集合 nt TS中节点数量 Nu US中节点集合 ft TS可容忍的
拜占庭节点数量nu US中节点数量 fu US可容忍的
拜占庭节点数量2.1.1 系统架构
系统架构如图1所示,其由2类分片构成,即由多个共识节点组成的共识分片与多个执行节点组成的执行分片构成. 共识分片负责接收客户端发送的交易,共识打包并产生区块,对交易进行排序;当共识分片生成共识区块后,执行分片从共识分片同步区块,并按交易在区块中的顺序执行区块,触发本分片内部的状态改变. 同时,每个分片节点数量满足3f+1的条件,其中f表示容忍的拜占庭节点数量.
当存在多个执行分片时,需要对所有的状态数据进行分片,以实现将负载划分到多个不同的执行分片中. 本系统需要将状态数据均匀地划分到不同的执行分片中,保证同一个状态的所有数据都被划分到相同的分片.
2.1.2 跨片交易执行
在分片区块链系统中,交易可以根据其特点分为2类:片内交易和跨片交易. 片内交易不需要与其他分片进行交互,仅涉及到本地数据的访问和修改. 而跨片交易需要修改或访问不同的多个数据,相比片内交易更加复杂,并且其原子性与一致性难以保证. 由于分片之间维护的状态数据不同,分片处理跨片交易的方式有明显差异;具体来说,一笔跨片交易Ti与某一分片ESj的关系主要分为3类:
1)Ti与W(Ti)中的状态数据均不由分片ESj维护;
2) R(Ti)中有状态数据由分片ESj维护,W(Ti)中无状态数据由分片ESj维护;
3)W(Ti)中有状态数据由分片ESj维护,R(Ti)中是否有状态由分片ESj维护均可;
对于1),分片ESj在处理跨片交易Ti时,该笔交易与该分片所维护的状态数据无关,因此无需处理该笔跨片交易,直接将其忽略即可. 对于2),执行交易Ti需要读取分片ESj中的状态数据,但不会修改该分片的状态数据;由于分片ESj负责传输跨片交易读取的状态数据至其他分片,分片ESj也被称为交易Ti的一个传输分片. 对于3),交易Ti不仅需要从分片ESj读取状态数据,同时也要更新该分片的状态数据. 因此,分片ESj是跨片交易Ti的一个更新分片.
由于数据分布在不同的分片,跨片交易Ti可能存在多个传送分片和多个更新分片;一个分片可以既是Ti的更新分片又是传输分片.
2.2 基于排序锁的跨片交易执行方法
本节描述了跨片交易执行方法处理跨片交易的细节,包括排序锁的工作原理、跨片交易执行流程以及拜占庭状态传输方案,从而使整个系统具有高性能、可扩展性和安全性.
2.2.1 排序锁的工作原理
本文的跨片执行方法是基于排序锁机制实现的,该机制通过利用基于锁定的并发控制来保证交易的原子性和可串行性,并通过以特定的交易锁定顺序来确保交易的隔离性. 在区块链系统中,排序锁机制可以根据交易在区块内的序列号顺序地锁定交易. 排序锁机制有2个重要的组件,分别是锁管理器和线程调度器. 前者负责按照有序的锁方案向交易授予锁;后者协调交易的执行,如工作线程分配和管理.
具体来说,锁管理器首先会根据先前预定的交易顺序依次给交易加锁,然后根据交易的读写集授予该交易当前可用的锁. 每个交易对锁的请求消息被保存在相应的锁的请求队列中. 如果一笔交易获得了其执行所需访问的所有数据的锁,它就能被送入线程调度器的缓存池中准备开始执行. 当一笔交易执行结束时,锁管理器会回收所有的锁,并将它们授权给下一笔交易. 线程调度器设置了多个工作线程并发地执行交易,调度器将把缓冲区中的每个交易分配给一个空闲的工作线程来执行. 在执行过程中,工作线程可能会因为某些原因中止一笔交易,但是这种行为被保证在所有节点中都是相同的. 具体实现如图2所示.
在本方法中,每个节点都会按照共识阶段确定的顺序给交易加锁,以保证每个节点执行的顺序是一致且唯一的. 即使拜占庭节点以不一致的顺序锁定交易,系统也会通过容错方法恢复正常,具体实现将在2.3节中阐述.
2.2.2 跨片交易的执行流程
本文提出的跨片交易执行方法处理跨片交易T的流程有4个:
1)将每个跨片交易Ti的传输分片和更新分片读取Ti执行时读取的本地数据,发送至除自身以外的所有更新分片中;
2)若Ti没有读取到所有状态数据,则Ti会被更新分片挂起,并等待传输分片发送远端状态数据;
3)当更新分片收集Ti所需的所有远端状态数据之后,它会唤醒并执行Ti,最后将执行结果写入本地数据中;
4)每个更新分片只写入本地维护的数据,忽略Ti对其他更新分片的更新操作.
举例来展示该跨片交易执行方法的实现细节. 如图3所示,分片1与T1、T2和T3这三笔交易的关系可以分别对应本节中所描述的3种情况. 图3中分片1维护Alice的账户数据,分片2则维护Bob与Carl的账户数据. 首先,T1的执行逻辑是将Bob的账户余额增加5,这笔交易只与维护Bob账户数据的分片2有关,所以分片1无需执行T1,自然地将该交易忽略,这符合2.1.2节中所述的第1类关系中描述的场景. 对于T2,它需要判断Alice账户是否有余额,以此来确定是否在Carl账户余额上增加5,此时分片1就会成为T2的一个传输分片,向Carl账户所在的分片传输Alice账户数据,这符合2.1.2节中所述的第2类关系中描述的场景. 最后在处理T3时,Alice需要向Bob转账5. 由于该笔交易需要同时修改Alice和Bob的账户余额,这2个分片分别将Alice与Bob的账户余额发送给对方,然后双方都执行该笔交易,并根据执行的结果修改各自的账户余额,这符合2.1.2节中所述的第3类关系中描述的场景.
不难发现,该跨片执行方法要求传输分片状态数据传输至更新分片,这产生了一定的通信开销. 然而,对于执行复杂逻辑的智能合约,状态传输是不可避免的,即便在较为成熟的基于两阶段提交的跨片执行方法中,协调者也需要将执行需要的数据传输给参与者. 与其他只支持简单转账交易的分片系统不同,基于状态传输的执行方法可以适应更广泛的应用场景,支持更复杂的逻辑判断.
此外,本文采用的状态数据传输是通过异步实现的,不会阻塞其他交易的执行. 因此,即便是个别分片不能及时处理其对应的跨片交易,其他分片也会将该交易挂起并处理其他交易,不会严重影响系统处理交易的能力.
2.2.3 片间状态传输
在处理跨片交易的过程中,传输分片需要将本地的最新状态传输至更新分片上. 与传统分布式数据库的数据传输有所不同,区块链中的拜占庭节点不仅会发送错误的信息干扰系统正常运行,而且会合谋欺骗正常节点. 具体表现为,一方面,拜占庭节点传输错误的状态数据会影响其他节点的正常执行,浪费系统的计算资源;另一方面,由于传输分片和更新分片之间的恶意节点的数量是不对称的,规模更大的分片可以篡改或隐藏真实的数据,达到劫持其他小规模分片执行结果的效果. 综上所述,在区块链系统中,基于节点对节点的数据传输方式是不安全的.
此外,尽管使用拜占庭广播的方式传输状态数据可以有效地保证系统安全性,但在大规模网络中,数据广播将占用大量带宽资源和计算资源,导致网络拥塞和性能下降. 这与本研究设计的低通信开销的跨片执行方法的出发点相悖.
本研究基于双射传输[20]设计一种拜占庭数据传输方案,具体实现如图4所示. 该方案支持跨片状态传输,并能够以最小的消息传输代价完成传输,同时避免了广播所带来的巨大成本. 我们将对最小状态数据传输问题进行形式化定义.
定义1. 给定一些传输分片中的节点Nt和一些更新分片中的节点Nu,其中Nt中的节点将状态数据传输给Nu中的不同节点. 给定传输节点数量|Nt| = nt,Nt能够容忍ft个拜占庭节点;给定更新节点数量|Nu| = nu,Nu能够容忍fu个拜占庭节点. 找到传输分片需要发送的状态数据(简称消息)的最小数量m.
根据传输节点数量nt和更新节点数量nu的大小关系不同,需要传输消息的最小数量m的决定性条件也不同. 当nt≥nu时,必须确保至少有2ft+1个不同传输节点传输消息;而当nt<nu时,必须确保至少有fu+1个节点接收到ft+1个不同传输节点的消息. 综上所述,只有满足特定场景所需的条件,才能够保证传输分片发送的消息成功被更新分片所接收. 下面是本文针对这2种情况提出的2个定理.
定理1. 给定一些传输分片的节点Nt和更新分片的节点Nu. 当nt≥nu时,让q=⌊(2ft+1)/(nu−fu)⌋和r=(2ft+1)mod(nu−fu). 消息传输的最小数量m定义为
m=qnu+fusgnr+r. (1) 定理2. 给定一些传输分片的节点Nt和更新分片的节点Nu. 当nt<nu时,让q=⌊(fu+1)/(nt−2ft)⌋和r=(fu+1)mod(nt−2ft). 消息传输的最小数量m定义为
m=qnt+2ftsgnr+r. (2) 变量q是一个诚实的节点应该接收或发送的最小消息数量. 而变量r是需要接收或发送q+1条消息的诚实节点数量. 以下是这2条定理的证明.
证明1. 通过反证法证明m为最小消息传输数量. 假设仅需要传输m'= m–1条消息,就可以保证消息成功被更新分片接收.当nt≥nu时,将Nu中的节点分为P1和P2两部分,将收到消息数量最多的前fu个节点划入P1中,其余的nu–fu个节点划入P2中. 其中,需要证明P1收到的消息数量满足mP1 ≥ qfu+fu sgn r,于是利用反证法,让mP1= qfu+fu sgn r–v,v≥1;则剩余的节点群P2只能收到mP2=m'–mP1=q(nu–fu)+r+v–1条消息.
讨论2种情况:当r=0时,可以得到mP1= qfu−v < qfu和mP2=q(nu−fu)+v−1 ≥ q(nu−fu). 这意味着在P1至少存在一个最多收到q−1条消息的节点,在P2中至少存在一个收到q条消息的节点. 当r>0时,有mP1=qfu+fu−v<(q+1)fu和mP2= q(nu−fu)+r+v−1 > q(nu−fu),这意味着在P1中至少存在一个最多收到q条消息的节点,在P2中至少存在一个收到了q+1条消息的节点. 由此可知,在P2中至少存在一个节点,使其收到的消息数量比P1中某个节点更多,这与P1划分规则相悖. 因此,证明mP1≥ qfu+fu sgn r和mP2≤ q(nu−fu)+r−1成立.
由于更新节点中诚实节点至少要收到2ft+1条消息才能保证更新分片不会被传输分片欺骗,所以有q(nu−fu)+r = 2ft+1成立. 最糟糕的情况是P1的节点全为拜占庭节点,在这种情况下只有P2的消息被有效接收. 但是,结合等式q(nu−fu)+r = 2ft+1,P2所收到的消息为mP2≤q(nu−fu)+r−1=2ft条,无法收到来自诚实节点的ft+1条消息. 因此,m'的假设是不成立的.证毕.
证明2. 同理,当nt<nu时,将Nt中的节点分为P1和P2两部分,将发送消息最多的前2ft个节点划入P1中,其余的nt−2ft个节点划入P2中. P1的发送信息为mP1=2qft+2ft sgn r,P2的发送信息为mP2=q(nt−2ft). 证明此过程与证明1相同,mP1≥2qft+2ft sgn r和mP2≤q(nt−2ft)+r−1成立.
只有保证在更新分片中至少有fu+1个节点收到ft+1个传输节点的信息,更新分片才不会被恶意节点劫持,所以有q(nt−2ft)+r=fu+1成立. 结合此等式知道,mP2 ≤ fu成立. 这意味着,当所有接收P2传输的消息的更新节点都是拜占庭节点时,在P1中剩余的ft个诚实节点传输的消息可能无法被更新分片有效地确认.证毕.
由于传输节点不能同时向同一个更新节点多次传输消息,在传输消息时,传输节点需要在消息上签名,注明消息的来源. 更新节点在接收消息时会对该消息进行验签,以防止受到拜占庭环境中可能存在的消息重放攻击. 此外,该方案仅确保整个分片收到ft+1条消息,这意味着单个节点仍有可能面临收到伪造消息的风险,本文在2.3节中设计了一种区块重构方法,被攻击的节点可以在区块重构时获得正确的状态数据,因此不需要在状态传输的过程中采用即时验证策略来确认正确的消息.
2.2.4 跨片交易执行的实现
算法1展示了本文提出的跨片交易执行方法在处理交易时的细节. 代码第1行从交易队列中获取一笔交易来执行. 代码第4行通过判断交易的读集R(T)和写集W(T)是否与本分片有关,从而决定是否忽略该笔交易. 其余代码详细描述了传输分片的工作细节,首先,扫描交易的读集和写集,来判断需要传输至更新分片的本地状态数据;然后,再将这些状态数据发送到相应的更新分片. 此外,当节点检测到该跨分片交易需要修改本地数据时,节点不仅需要从本地数据S读取状态数据,还需要从其他分片获取远端数据RD(代码第19行). 如果一笔跨片交易成功读取所需的全部状态数据,系统开始执行该笔交易,并把它送入线程协调器的缓存中等待工作线程的处理(代码21行);否则将该交易挂起并处理其他交易,直到获取到相应的远端数据.
算法1. 跨片交易执行算法TransactionExecution.
输入:交易执行队列Txs,本地维护的状态数据S, 其他分片发送到本地的状态数据RD.
① when BeginExecutingTransaction
② T←Dequeue(Txs); /∗从交易队列中取出一 笔交易执行∗/
③ end when
④ if R(T) ∩ S = ∅ & W(T) ∩ S = ∅
⑤ Discard(T) ;
⑥ end if
⑦ if R(T) ∩ S ≠ ∅
⑧ Init(data_set) ;/∗初始化需要传输至更新分 片的数据集∗/
⑨ for each data ∈ R(T)
⑩ if record ∈ S
⑪ data_set←data_set ∪ record;
⑫ end if
⑬ for each ES ∈ Writer(T)
⑭ ES←Send(data_set) ;/*传输本地状态 至更新分片*/
⑮ end for
⑯ end for
⑰ end if
⑱ if W(T) ∩ S ≠ ∅
⑲ T←Read_data(S,RD) ;/*从本地存储和传输 分片读取数据*/
⑳ if R(T) ⊆ S∪RD
㉑ Executing(T) ;
㉒ else
㉓ Pending(T) ;/*将未完成的交易挂起*/
㉔ end if
㉕ end if
2.3 存储与数据恢复
在经过共识协议产生区块后,每个分片只需处理与其相关的交易,忽略其他分片中的交易. 然而,这种情况下传统的存储方法存在3个问题:1) 共识协议生成的区块包含所有的交易信息,不能直接被分片用作最终的存储区块结构. 2) 在每个节点独立执行交易的情况下,当处理跨片交易时,节点获取远端数据的正确性难以保证,可能影响系统数据的一致性. 3) 分片之间也缺乏同步手段,难以确定系统处理交易的总进度. 综上所述,传统的区块存储方案无法满足分片区块链场景下数据管理的需求,因此,需要设计一种区块重构与数据恢复机制,以解决这3个问题.
2.3.1 区块重构
每个执行分片需要重新生成新的区块结构,特别是计算和存储包含交易信息与状态数据的MPT树. 每当分片中的节点执行一定数量的交易(例如,每执行1000个交易),就将这些交易重新打包成一个新的区块,然后广播该区块的块号、状态树的根哈希 、交易树的根哈希以及从每个传输分片中得到的所有状态数据. 当每个节点收到新区块的2f+1条消息后,节点会验证消息的有效性并将它们传输的根哈希与本地计算出的根哈希进行对比.
通过比较2个状态树和交易树的根哈希,可以验证它们是否相同,从而验证不同节点之间区块链状态与块内交易信息的有效性和完整性是否一致.
当确定f + 1条根哈希信息与本地生成的根哈希信息相同,节点确认该区块,并将区块存储在本地. 由于上述的重构区块的确认仅需要1轮网络通信,分片内不需要执行一个完整的PBFT共识来验证重构区块的正确性,大大减少了网络开销. 当共识协议的原始区块内的所有交易被分片获取后,即可删除该共识区块,节省系统存储开销. 该机制的工作流程如图5所示.
2.3.2 数据恢复
如果任何节点发现其生成的重构区块的根哈希与确认的区块不同,这意味着该节点很可能遭受到了拜占庭传输节点的恶意攻击. 举例来说,拜占庭节点可能会向更新节点发送错误的读集,导致不同节点在执行相同的跨片交易时视图不一致. 为了确保系统一致性,执行节点需要重新执行特定的交易集,以达到正确和一致的结果. 此外,重新执行的顺序应该遵循共识协议确认的顺序.
在区块重构阶段,需要在节点之间广播生成的重构区块以及一些相关信息,其中包括处理跨片交易时收到的状态数据集合. 遭受到攻击的节点能够在该阶段收到正确的状态数据集合,这些数据的正确性是被传输分片中ft+1个节点签名保证的. 如果某个节点发现有节点故意提供错误的状态数据,它可以从其他节点发送来的区块确认信息中获取足够多的正确状态数据来进行正确的验证和执行.
尽管交易重复执行会给系统带来额外的计算开销,但本文认为该开销是可以接受的. 首先,在许可链中,由于节点是经过认证和授权的,节点之间的信任程度较高,产生拜占庭节点的概率较低. 其次,如果投票结果表明某个节点故意提供了错误的状态数据,那么该节点可能会面临一定的惩罚,比如将其标记为不诚实节点并拒绝它所传输的状态数据,进一步优化网络的安全性. 最后,在真实场景中,交易的依赖性通常不会太复杂,只有少部分交易会访问同一个状态数据,因此交易重做的代价较低. 综上所述,数据恢复的开销与风险是可以接受的.
2.4 安全性分析
根据区块链的特性,系统中各个分片通过共识协议达成一致,以确定需要处理的交易集. 然而,在交易执行过程中,可能会发生异常中止,这会破坏交易的一致性. 除了拜占庭节点的恶意中止,本节将总结、分析和处理交易的其它异常中止.
交易异常中止可分为2种:1)由崩溃故障引起的中止;2)不符合执行条件引起的中止. 在情况1)下,由于共识区块依旧保留着异常中止的交易信息与序列号,崩溃的节点只需要在恢复时根据交易序列号重新获取在共识区块内未提交的交易信息,并重新执行. 而在情况2)中,如图6所示,共识区块内包含2笔跨片交易. 2个分片不仅都需要更新状态,而且需要相互传输状态数据. 如果其中一个更新分片中的跨片交易(如T4)被中止,那么所有更新分片中的这个交易都将被中止. 这是因为2个分片看到的状态数据是相同的,操作逻辑也是相同的,因此最终执行结果必然相同.
此外,如果在处理跨分片交易时存在恶意节点故意保持沉默,这可能导致一些更新节点无法收到执行交易所需的状态数据. 为应对这种情况,更新节点可以主动向同一分片中的其他节点请求状态数据. 因此,本节提出的方法可以在所有情况下保证跨分片交易的一致性.
3. 抗冲突的跨片交易执行优化方案
第2节提出的无协调者的跨片交易执行方法显著地提高了跨片交易处理的效率,令分片区块链系统在面对大量跨片交易时依然保持良好的性能. 尽管区块链能够容忍低冲突的工作负载,但在面对高冲突的场景时,大量的冲突交易(包括跨片交易)会因网络拥堵或计算资源不足而被阻塞,进而影响系统吞吐量,延长跨片交易的响应时间. 此外,如果跨片交易长时间未能被成功提交,相关分片将中止该交易,这需要额外引入多轮通信协议来保证交易一致性,造成资源浪费和高昂的通信代价.
现今,一些工作利用交易重排序技术来提高系统在高冲突负载下的性能. 然而,这些方法仍然存在一些局限,无法直接应用于排序锁机制. 首先,这些重排序算法主要是针对EOV范式系统中高交易中止率的问题提出的,目的是通过改变交易提交顺序,找到最小中止交易集合,从而提升系统的交易处理性能. 其次,由于这类重排序操作发生在排序阶段之前,所以它们无需考虑交易排序的限制,这与需要全局序的排序锁机制相矛盾. 最后,重排序算法是针对单机节点实现的优化算法,尚未考虑跨片交易执行时状态传输对系统交易处理性能的影响,以及跨片交易执行开销要远大于片内交易的情况.
因此,本节对第2节提出的跨片交易执行方法进行优化,通过将交易重排序策略与跨片执行方法相结合,提高执行方法的抗冲突能力. 与传统重排序方案不同,本节提出的策略主要通过提高执行并发度来提升系统性能,它不仅可以通过重排序方案获得多个支持高并发执行的交易子集,而且也针对跨片交易执行场景进一步优化,提高了跨片交易传输的效率,显著降低了跨片交易的延迟.
3.1 基于排序锁机制的交易重排序
本文提出的跨片执行方法是通过排序锁机制对块内交易进行并发控制. 排序锁机制虽然赋予了交易一定程度的并行处理能力,但在高冲突负载下,跨片交易的执行效率仍然会被严重影响. 因此,本文研究对排序锁机制进行了优化,设计了一个交易重排序方案,以提高系统在处理高冲突负载时的表现. 同时,优化后的并发处理方法具有通用性,跨片交易和片内交易执行都可以从该方案中受益. 本文将结合一个具体的例子来介绍重排序方案的工作原理和执行细节,交易用例以及交易之间的冲突关系参见表2和图7.
表 2 交易集表Table 2. Transaction Table交易序号 交易读集 交易写集 交易类型 T1 R(a) W( ) 片内交易 T2 R(a, c, d) W(a, c) 跨片交易 T3 R(b, d, f) W(d, f) 片内交易 T4 R(c, b) W(b) 片内交易 T5 R(b, e) W(e) 跨片交易 T6 R(f) W(f) 片内交易 本节提出的交易重排序策略主要是通过交易子集划分算法来解决低交易并发度和单一锁管理器串行加锁的问题. 交易子集划分算法基于读集和写集之间的冲突关系,动态将需要执行的一批交易划分为多个子集内部不存在冲突的交易子集. 由于任何一个交易子集中的交易互不冲突,它们可以并行地执行,从而最大限度地提高交易的并发执行性能. 此外,该算法还实现了对交易子集内部所有交易的并行无冲突加锁,消除了排序锁机制的单点性能瓶颈. 算法2详细描述了如何将一批交易通过交易重排序机制划分为多个交易子集.
算法2. 交易子集划分算法TransactionsPartition.
输入:带有交易序号的交易队列Btxs;
输出:互不冲突的交易子集集合TSS.
① TSS←∅; /*初始化交易子集集合*/
② when Btxs不为空
③ T←Dequeue(BTxs) ;
④ n←|TSS|;
⑤ for 下标从小到大遍历每一个Si ∈ TSS
⑥ if HasConflict(T,Si)
⑦ continue;
⑧ else
⑨ Si←Si∪T;
⑩ end if
⑪ end for
⑫ if T没有被任何一个Si合并
⑬ 初始化一个新的交易子集Sn+1←Sn+1∪T;
⑭ TSS←TSS∪Sn+1;
⑮ end if
⑯ end when
⑰ return TSS.
代码第1行初始化了输出的交易子集的集合. 代码2~16行将交易划分为内部互不冲突的交易子集,其中子集标号较小的具有更高的执行优先级. 具体而言,代码第3行从交易队列中取出一笔交易进行处理,第4行确定交易子集的数量. 代码5~11行判断所处理的交易是否与当前交易子集内的交易存在冲突. 若不存在冲突,则将该交易并入该子集中;否则继续检索下一个子集. 如果遍历所有子集后发现该笔交易与所有子集都存在冲突情况,则初始化一个只包含该笔交易的子集,并将其标号赋值为n+1.
图8展示了应用交易子集划分算法来划分交易的一个例子,T1~T6 是同一个区块内的6笔交易. 根据交易序号从小到大遍历所有的交易读写集,并把它们分为多个集合内无冲突的交易子集. 对于第1笔交易 T1, 根据此策略,初始化过后的 TSS没有一个交易子集,于是将生成第1个交易子集 S1并将 T1 并入S1;然后,对于第2笔交易 T2,它的读写集与 T1 存在冲突,因此无法将其放入子集S1,而是将其放入新生成的第2个交易子集S2;对于第3笔交易T3,该策略根据子集下标从小到大寻找与T3 不冲突的集合,可知S1中的交易均和T3 无冲突,于是将T3 放入交易子集S1中. 同理,T4将被放入新生成的交易子集S3中,T5并入S1中,T6并入S2中. 最终,本算法可以获得S1={T1, T3, T5},S2={T2, T6}和S3={T4}这3个交易子集.
尽管同一个交易子集中的交易可以并行加锁,但不同子集之间的加锁操作必须按照一定的顺序进行. 具体而言,标号较小的交易子集需要优先于标号较大的交易子集进行加锁操作. 结合图8用例,对于S1中的3笔交易,多个线程可以并行地对它们进行加锁操作,因为它们之间不存在任何依赖关系;而对于S2中的交易,由于它们依赖于S1中的交易,必须等待S1 中的所有交易均被锁定后,才能进行加锁操作. 最后,这批交易的执行结果等价于串行执行结果T1 →T3→T5→T2→T6→T4.
算法3. 冲突检测函数HasConflict算法.
输入:一笔交易T,一个交易子集S;
输出:一个布尔值Bool.
① for each T的写集W ∈ W(T)
② if 满足W ∈ W(S)或W ∈ R(S)
③ return true; /*R(S)和W(S)为集合S中交 易读集与写集总和*/
④ end if
⑤ end for
⑥ for each T的读集R ∈ R(T)
⑦ if 满足R ∈ W(S)
⑧ return true;
⑨ end if
⑩ end for
⑪ return false.
函数HasConflict用于检测一笔交易是否与一个交易子集存在冲突,输入包括一笔交易T 和一个交易子集S,输出为代表两者冲突结果的布尔值Bool. 该函数首先将交易T写集W(T)与交易子集S的R(S)和W(S)进行比较,判断该笔交易是否与集合S中的任何一个交易存在“读写”冲突或“写写”冲突. 再者,由于“读读”操作之间不存在冲突,在处理该交易的读集时,该函数仅会判断交易T的读集R(T)与交易子集S的写集W(S)的冲突情况,即判断该交易是否可能读到集合S中交易所修改的数据. 根据这2轮检测的结果,该算法会决定是否将该交易并入交易子集S中. 具体来说,接图8所示的例子,当T4尝试加入交易子集S1={T1,T3}时,T4的写集中的b与S1中T3的读集产生冲突,因而无法并入S1.
3.2 针对跨片交易的重排序优化策略
3.1节提出的交易重排序策略有效地提升了交易的执行并发度,从而增强了跨片交易执行方法的抗冲突能力. 但是,这种策略忽视了交易重排序对跨片交易执行的影响. 在执行跨片交易时,每个更新分片需要等待传输分片传输的状态数据,而影响状态数据传输效率的原因有2个方面:一方面,由于每个分片执行的交易集不同,处理同一笔跨片交易的时间点也会有差异. 如果贸然地通过重排序策略将某笔跨片交易的执行顺序排在与之冲突的片内交易之后,那么与该笔跨片交易相关的状态数据必须等到与之冲突的片内交易全部执行完毕后才能传输,这严重影响了其他更新分片的交易处理性能. 甚至,跨片交易可能因为长期得不到状态数据而需要重新执行,这无疑会极大地浪费计算资源.另一方面,为了保证数据的一致性,传统的排序锁机制仅在跨片交易执行阶段以交易为单位进行状态数据交换,以确保一笔跨片交易在相同的视图下执行. 如此细粒度的状态传输会导致分片之间频繁地进行信息交互,从而造成繁重的网络开销. 同时,该机制也无法有效地利用带宽优势来处理跨片交易. 正如图8中的例子所示,交易子集S2中的跨片交易T2所需的状态数据a需要等待S1中的片内交易T1执行完毕. 同时,执行T2与T5这2笔跨片交易也伴随着等量次数的片间数据交换.
针对这2个方面的挑战,本节将进一步优化交易重排序策略,消除跨片交易对片内交易的依赖,提高状态数据的传输效率. 首先,在锁管理器遍历交易时,该优化方法会对跨片交易和片内交易区别处理. 对于跨片交易,只需要确保它不与交易子集中的其它交易发生冲突即可将其并入该子集,处理方法与算法2如出一辙. 而对于片内交易,该算法不仅需要检测与当前遍历的交易子集的冲突,还需要检测比当前交易子集优先级更高的子集中的跨片交易的冲突,以消除与跨片交易的“读写”和“写写”依赖. 最后,在交易子集划分完成之后,本策略将部分跨片交易所需的且不会被片内交易修改的状态数据批量传输至更新节点. 通过这种方式,传输分片可以更高效地将状态数据传输到每个更新分片,降低分片之间状态传输的频率,大幅度缩短跨片交易的响应时间.
算法4详细描述了如何将一批片内交易放入已存在的无冲突交易子集中,同时保证每一笔跨片交易都不会产生对片内交易的依赖. 然后,输出一个包含片内交易与跨片交易的交易子集集合. 算法4与算法2主要有2处不同:1)片内交易T先从下标更大的交易子集开始遍历. 如果算法4从下标较小的交易子集开始遍历,检测到交易T与某个交易子集Sj没有发生冲突,算法4无法确定T与Sk(j<k)中的跨片交易是否存在冲突,这也就意味着无法保证跨片交易不依赖于片内交易的执行结果. 而从下标较大的子集开始遍历,当T第一次与某个交易子集Si产生冲突,表明Si是与T有冲突的子集中下标最大的子集,所以算法4可以将该交易T并入最靠近该子集的不冲突交易子集Sn(n>i)中. 2)算法4在判断交易T与交易子集是否冲突时,需要检测子集中与之产生冲突的交易类型. 如果T与跨片交易产生冲突,则算法4的处理方式与算法2相同,直接中止遍历并将交易T并入对应的交易子集中. 当T与片内交易产生冲突时,算法4会继续向前遍历,直到遍历完所有子集或遇到与其冲突的交易才会停止,这保证了算法4产生的交易子集数量尽可能少,最大程度提升执行的并发度.
算法4. 优化交易子集划分算法TransactionsPatitionByType.
输入:交易子集集合TSS ,带有交易序号的交易队列Itxs;
输出:插入片内交易的交易子集集合TSS.
① SCtxs←⋃S∈TSSS; /*只包含跨片交易的交易集合*/
② when Itxs不为空
③ T←Dequeue(ITxs);
④ n←|TSS|+1;
⑤ for each 下标从大到小遍历每一个Si∈ TSS
⑥ if HasConflict(T,Si)
⑦ if HasConflict(T,Si–SCtxs)
⑧ continue; /*T只与片内交易产生冲 突,继续向前遍历*/
⑨ else
⑩ break; /*T与跨片交易产生冲 突,中止遍历*/
⑪ end if
⑫ end if
⑬ else
⑭ n←i;
⑮ end for
⑯ if Sn不存在
⑰ Sn←Sn∪T ; /*初始化一个新交易子集Sn*/
⑱ TSS←TSS∪Sn;
⑲ else
⑳ Sn←Sn∪T;
/*将T并入最后一个不冲突 的交易子集*/ ㉑ end if
㉒ end when
㉓ return TSS.
代码5~10行展示了片内交易寻找适合并入的交易子集的过程. 每次检测到该子集与交易T无冲突时,算法4都会更新并入的子集下标n. 由于采用自后向前遍历方法,所选择的并入子集的优先级随着遍历的进行而逐渐提高. 当一轮交易子集的遍历完成后,代码16~20行将交易T并入先前选出的最适合的子集Sn中. 如果下标n代表的交易子集不存在,则会新生成一个包含交易T的交易子集.
最后,算法4获得了一个包含片内交易与跨片交易的交易子集集合TSS. 由于不存在跨片交易对片内交易的数据依赖,在执行任意一个交易子集前,传输分片可以将子集中跨片交易所需的状态数据打包发送至对应的更新分片,不会发生由于更新分片读到旧数据产生的执行结果不一致的情况.
图9展示了应用算法4优化后的交易子集算法来划分交易的一个例子. 首先,使用算法2处理跨片交易,并将它们划分到交易子集S1中,因为T2和T5之间不存在冲突. 接下来,使用算法4处理片内交易. 交易T1与跨片交易T2存在冲突,因此被合并到新的交易子集S2中. 类似地,交易T3与T2存在冲突,但与T1无冲突,因此也被合并到S2中. 对于交易T4,根据算法4,当遍历到S2时,它与片内交易T3冲突. 继续遍历,直到检测到与跨片交易T2冲突,记录其并入的子集下标为3,然后将其合并到新的交易子集S3中. 交易T6与S2中的片内交易T3存在冲突,但与任何跨片交易都没有冲突,因此被合并到S1中. 综上所述,算法4可以生成3个交易子集S1={T2,T5,T6},S2={T1,T3}和S3={T4}. 简而言之,通过优化的重排方案,不仅跨片交易以并发执行,而且整个分片区块链系统在高传输效率运行.
算法5. 引入交易重排序策略后的交易执行过程.
输入:一批交易B.
① when BeginTransactions
② ExecutionQueue←∅;
③ RD←∅;
④ 初始化本地数据S;
⑤ end when
⑥ when ReceiveRemoteData
⑦ RD←RD∪Remote_Data;
⑧ end when
⑨ when LockPhase
⑩ Itxs,Ctxs←B; /*片内交易和跨片交易划分至 2个有序队列*/
⑪ TSS←TransactionsPartition(Ctxs) ;
⑫ TSS←TransactionsPartitionByType(Itxs, TSS) ;
⑬ for each 每个交易子集Si ∈ TSS
⑭ 并行加锁 ExecutionQueue←LockParallel(Si) ;
⑮ end for
⑯ end when
⑰ when ExecutionPhase
⑱ ESj←SendStateData(Si) ;/*将状态数据集打 包传输*/
⑲ TransactionExecution(ExecutionQueue,S,RD) ; /*并行执行交易*/
⑳ end when
算法5描述了引入交易重排序策略后交易的执行过程. 交易开始执行时,会初始化一个执行队列ExecutionQueue和远程状态数据集RD. 当有远程数据传输至本地时,会将其暂存至RD中. 在锁定阶段,算法5首先将一批交易B按交易类型划分至不同的交易队列中,队列中的交易顺序严格按照交易序列号从低到高排列. 然后,通过算法2与算法4将多个交易子集进行划分. 最后,利用多个锁线程并行地给一个交易子集中的所有交易加锁. 顺利完成加锁操作的交易会进入执行阶段,算法并行地从ExecutionQueue中取出交易并执行. 由于跨片交易在同一个交易子集中不存在冲突,传输分片可以一次性将多个状态数据提前传输至更新分片,无需等待交易执行过程中传输.
4. 实验与结果
基于提出的无协调者跨片交易执行方法,本节实现了原型系统CoCoS,并对其性能进行测试. 主要测试了该方法在不同跨片交易占比下的系统执行交易的吞吐量、交易延迟等方面的性能,并与基于2PC 协议的分片系统(如AHL)进行对比.
4.1 实验环境
1) 硬件环境. 所有的实验都在一个集群上进行,该集群有20台机器,配备了英特尔至强2.5 GHz CPU,每个CPU包含了32个核心,还配备了32 GB内存和320 GB磁盘空间以及100 MB网络带宽. 本实验使用Ubuntu 16系统,并运行g++的7.3版本. 本实验使用go-Ethereum作为库,并将一个开源的PBFT 实现集成到本文的系统中. 每个分片被分配多个工作线程来处理交易. 实验的结果取10次测试结果的平均值,以提高实验的准确性.
2) 软件环境. 本文采用具有C++版本的Ethereum作为系统库来执行智能合约. 为了实现交易的并发执行,本实验创建了一个虚拟机实例池,每个实例池管理1个以太坊虚拟机(Ethereum virtual machine, EVM). 实验设置了1个共识分片和4个执行分片. 每一个分片都由4个节点组成,并且每个节点都被分配在不同的机器上. 共识分片负责向每个执行分片传输共识协议产生的共识区块.
3) 智能合约. 本文通过SmallBank智能合约来测试跨片交易执行方法的性能. SmallBank智能合约经常被用作评估OLTP数据库系统的性能基准,也被广泛用于区块链系统的性能测试. 本文所有实验使用的数据集包含1000万客户和相应的1000万账户. 此外,本文为SmallBank设计了一个额外的SendPayment交易来实现转账功能.
4.2 测试负载
在介绍实验中使用的工作负载之前,需要先定义跨片率(cross-shard rate)与冲突率(conflict rate)的概念. 跨片率主要指的是跨片交易数量与总交易数量之比. 本实验实现的负载生成器考虑了交易数、账户数和跨片率,可以为每组实验生成相应的负载. 实验测试了在4个不同跨片率下系统执行跨片交易的性能,这4个跨片率分别为0,0.3,0.6和0.9. 跨片率也反映了分片之间的通信频率. 所有跨片和分片内的交易被均匀地分布在不同的分片上,以达到分片的负载均衡. 而冲突率表示冲突交易的数量与总交易的数量之比. 实验使用冲突率来描述交易集的负载情况,并选择0.3,0.6和0.9的冲突率代表3种不同程度的冲突. 此外,这些冲突交易被均匀地分布在每个分片中,以确保每个分片的性能保持相似. 另外,需要注意的是,一个区块最多只能包含1000 笔交易.
4.3 系统跨片处理性能
本节介绍跨片交易执行方法的实验结果,包括吞吐量、延迟和扩展性. 我们从单节点吞吐量和每个块的延迟评估方法的总体性能,无需共识. 本文部署了4个执行分片. 实验细节如下.
4.3.1 系统吞吐量
图10展示了每个节点的跨片率与吞吐量之间的关系. 本文方法和基于2PC协议的跨片执行方法进行了比较. 由于2PC协议涉及分片之间多轮的通信与交易阻塞,它在处理跨片交易时表现不佳. 基于2PC协议的跨片执行方法在高跨片率下最高只能达到6 000 TPS,而在高跨片率情况下仅能达到1 200 TPS. 其性能低下的主要原因在于处理跨片交易时需要进行多轮片间交互,导致跨片交易确认时间延长,并严重阻塞其他交易的执行. 同时,随着负载跨片率的升高,庞大的通信开销使得系统处理性能急剧恶化,该现象与本文的预期结果一致.
本节还测试了不同数量的工作线程下无协调者的跨片交易执行方法的表现. 由图10可知,该方法可以利用多线程的优势来处理交易. 当利用4个工作线程处理无跨片交易的交易集时,每个节点的吞吐量可以达到22 000 TPS;相较于基于2PC协议的方法,在高跨片率下系统的性能仅下降了约30%. 并且,随着工作线程数量的增加,系统的吞吐量也会明显地提升. 然而,由于状态数据传输所需的时间以及单一锁管理器可能存在的瓶颈,特别是在高跨片率负载时,增加线程数并不能显著提高系统的执行性能. 这是因为系统性能的瓶颈从线程数量转移到了状态传输和锁管理器上. 此外,随着节点数量增加至30个,系统吞吐量并无明显地降低.
4.3.2 交易延迟
图11展示了每个节点的跨片率与交易延迟之间的关系. 在区块链中,交易以块为单位进行提交,并且只有区块内所有交易都执行完毕,对应区块才能提交. 在区块内的交易设置为1000 笔的情况下,基于2PC的执行方法的交易延迟随着跨片率的上升而急剧增加,在高跨片率下延迟达到837 ms. 这是因为在高跨片负载下大量的块内交易堆积,执行速度缓慢,而区块提交的时间也会因此延长.
反观本文提出的跨片交易执行方法,无论在任何跨片负载下,甚至系统扩展至30个节点,交易延迟都能够保持在较低水平,且趋势几乎为一条水平线. 同时,与2PC协议不同,本文方法还可以更灵活地利用多线程的优势来加速跨片交易的执行,无需考虑协调者的数量与开销.
4.3.3 系统扩展性
图12显示了CoCoS系统在不同分片数量的执行分片下的系统吞吐量. 实验使用的交易集包含1000万名客户和相应的1000 万账户,交易的读写集均匀分布在1000 万数量集的账户里. 同时,本实验给每个分片配备了2个工作线程来执行交易. 本测试将CoCoS系统分片数量从1 扩展至12,并通过不同分片数量下的吞吐量表现来衡量系统的可扩展性. 实验表明,随着分片数量的增加,系统的吞吐量呈线性增长趋势. 当扩展到12个分片时,CoCoS 系统的吞吐量达到了近75 000 TPS.
随着分片数量的不断增加,跨片交易比例也不断上升,从而导致分片单点性能下降,交易延迟略微增加. 然而,整个系统的性能随着分片数量的增加而线性提升,这也符合对系统扩展性的定义. 综合本文的所有实验,可以证明本节设计的CoCoS系统在系统吞吐量、交易延迟和可扩展性方面远优于采用两阶段提交协议的系统.
4.3.4 系统容错恢复
图13展示了CoCoS系统在面对各种类型攻击时的容错能力. 本文通过模拟传输节点的宕机或作恶行为,使得执行节点无法收到状态数据或接收到错误的状态数据.
图13表明,在单一工作线程的条件下,传输节点的崩溃并不会严重影响交易执行. 这是因为本文提出的执行方法是非阻塞的,当一笔跨片交易无法满足执行条件时,系统会将其挂起,并继续处理其他交易,直到所需的状态数据到达. 当节点收到拜占庭节点的错误数据时,会产生额外的开销用于重做交易. 随着跨片率的提高,节点受到攻击的频率也会增加,导致需要重做的交易数量增加,从而降低系统的吞吐量. 此外,当节点检测到恶意的传输节点时,可以选择拒绝该节点的消息,并从其他诚实的传输节点获取数据;由于不再从恶意传输节点获得状态数据,系统的吞吐也不会因重做交易而降低.
4.4 交易重排序方法性能
本节将分别介绍排序锁机制的原方案、引入交易重排序方案和针对跨片交易优化后的方案的实验结果. 节点的配置与4.3节的实验相同. 此外,本节设置了2个不同的交易集,分别是跨片冲突和片内冲突,以展示交易重排序方案在不同性质负载冲突下的效率.
4.4.1 原始的跨片交易执行方法
图14和图15分别展示了传统排序锁机制在面对不同冲突率和不同冲突类型时的表现.
通过实验可以看出,基于排序锁的并发控制方法不能高效地处理冲突交易. 当交易不存在冲突时,交易之间不会同时访问一个状态数据,因此锁线程可以无阻塞地向这些交易授予锁,所有交易可以完全地并行执行. 在这种情况下,基于排序锁的并发控制方法的性能和乐观并发控制方法的性能相当,在8个工作线程的条件下单分片的吞吐量可以达到45 000 TPS.
但随着冲突率的增加,基于排序锁机制的并发控制方法的性能急剧降低. 由图14可知,在冲突率为0.3的情况下,吞吐量下降到原来的30%左右. 产生这种现象的原因在于,根据基于锁的并发控制的特点,在高冲突负载下,多个交易会同时请求对同一状态数据进行大量的加解锁操作,线程在等待锁和释放锁的过程中来回颠簸,从而影响了系统整体的性能. 冲突严重时,系统近乎串行地执行交易. 此时,即便拥有多个工作线程,系统也难以利用它们高效地执行交易,反而多线程频繁的上下文切换会消耗大量的CPU 资源,从而降低系统的吞吐量.
特别是在基于排序锁机制的分片区块链系统中,跨片交易冲突对系统性能的影响是灾难性的. 由图15可知,在负载冲突率为0.3的情况下,分片的吞吐量 最高仅为2 031 TPS,仅为同条件下片内交易冲突的22%;而在面对高冲突率负载时,系统性能更加糟糕;在8个工作线程的条件下,系统性能仅为同条件下片内冲突的15%. 随着线程数量的增加,系统的处理性能会进一步下降. 具体而言,高冲突场景下跨片交易的状态传输延迟和锁机制本身的缺陷是系统性能恶化的主要原因. 在跨片交易冲突率达到0.9的情况下,将线程数量从4增加到8时几乎没有对系统吞吐量产生提升,此时系统的性能瓶颈在于激烈的锁资源竞争. 因此,采用更为高效的策略来应对高冲突的场景是必要的.
4.4.2 引入交易重排序的跨片交易执行方法
图16展示了排序锁机制在引入交易重排序策略后,系统在处理片内交易冲突时的性能,其中吞吐比为引入交易重排序方案的吞吐量和基于排序锁方案的吞吐量的比值. 在高冲突的交易负载下,系统可以利用8个工作线程来达到41 000 TPS的吞吐量. 与执行无冲突的交易集相比,采用交易重排序方法的系统在处理高冲突交易集的表现依旧出色,其吞吐量降低了不到10%. 不难发现,交易重排序方案通过将交易的顺序进行调换来增加交易执行的并发度,缩短了交易的阻塞时间. 此外. 根据交易子集划分算法,锁线程还可以并行给同一个交易子集内部的交易上锁,突破了单点瓶颈问题. 如此一来,尽可能多的交易能够通过交易重排序机制迅速获得锁资源并执行. 总而言之,该并发执行方法有效地利用多核处理器执行交易,显著增加了系统的吞吐量,整体性能明显优于原排序锁机制.
而图17展示了排序锁算法在引入交易重排序后,系统在处理跨片交易冲突时的性能,其中吞吐比为引入交易重排序方案的吞吐量和基于排序锁方案的吞吐量的比值. 实验数据表明,引入重排序方案的系统在处理跨片交易冲突时表现依然优秀. 在采用4个工作线程的条件下,系统的吞吐量基本维持在20 000 TPS 左右,并且不会因负载的变化而大幅度下降. 与片内交易不同,在处理跨片交易中,交易执行并发度越高,越多的跨片交易可以有效地利用带宽将状态数据更加迅速地发送到更新分片上,提高跨片交易的执行效率. 但是在8个工作线程的情况下,处理跨片冲突的性能略低于处理片内冲突的性能. 这是因为此时整个系统的性能瓶颈已从线程数量转移到了执行跨片交易时的状态传输上,系统已经无法通过增加工作线程数量来提高吞吐量,唯有通过对状态数据传输进行优化,系统的性能才能再进一步提高.
4.4.3 针对跨片交易的重排序优化策略
图18展示了针对跨片交易优化后的排序锁机制的性能,其中吞吐比为针对跨片交易优化方案的吞吐量和引入交易重排序方案的吞吐量的比值. 该优化策略在8个工作线程下的表现比单纯引入重排序的策略高出6 000 TPS. 由于传输节点提前将某些状态传输打包传输到更新节点,更新分片在处理部分跨片交易时无需等待数据的传输就可以及时从本地获取,一定程度降低了跨片交易的延迟.
5. 总 结
本文提出了一种用于分片许可区块链的跨片交易执行方法,用来提高分片系统的性能和降低跨片交易的延迟. 在本文提出的方法中,跨片交易可以通过基于确定性执行的单向通信执行,并且无需协调者的帮助. 此外,本文设计了一种抗冲突的跨片交易执行优化方案,通过交易重排序策略实现支持高并发的交易子集划分,从而提高系统在高冲突负载下的吞吐量和状态传输的效率. 实验结果支持了本文工作的实用性与有效性.
作者贡献声明:阙琦峰提出了研究思路,设计与完成实验;陈之豪负责论文修改和实验设计;张召提出指导意见并修改论文;杨艳琴与周傲英负责审阅论文并提出指导意见.
-
表 1 CHE和CHW实验数据集中的异常标签
Table 1 Abnormality Labels in CHE and CHW Datasets
标签名 标签名 心房颤动 室性期前收缩 窦性心动过缓 交界性期前收缩 窦性心律不齐 左前分支阻滞 I度房室传导阻滞 左心室肥大 窦性心动过速 下壁心肌梗死 前间壁心肌梗死 完全性左束支阻滞 左心房肥大 不完全性右束支阻滞 完全性右束支阻滞 房性期前收缩 表 2 本文中主要符号含义
Table 2 Meanings of Key Notations in Our Paper
符号 含义 U={l1,…,lk,…,lu} 所有异常(标签) obj,fk 实例,特征 ft(ob) 实例ob的特征向量 ED,WD 示例数据集、弱标签数据集 CD 干净数据集 TD ED和WD中锚标签样本形成的数据集 cl(obi),rl(obi) obi的弱标签集和相关标签集 al(ob) 实例ob的锚标签集 ¯ED(l),ED_(l) ED中含和不含标签l的样本 ¯WD(l),WD_(l) WD中含和不含标签l的样本 ¯FC(l),FC_(l) 标签l的正样本和负样本上的所有类簇 ¯Ci(l),C_i(l) 标签l的正样本和负样本上的第i个类簇 fpj(l) l对应的第j个异常特征模式 ¯FP(l),FP(l) l正样本和负样本上异常特征模式集 fq(l) 标签l在数据集上的出现次数 AWD(FP1,FP2) 异常特征模式集合FP1,FP2的平均Wasserstein距离 supp,conf,cort 支持度、置信度和正相关度 st,ct,rt 支持度、置信度和正相关度的阈值 dr(ob,l) 标签l属于实例ob的判别比 θl 标签l属于实例的分割阈值 ρl 标签l属于实例的模糊间隔长度 lf(ob) 实例ob的生存指数 表 3 MIT-BIH数据集中的异常标签
Table 3 Abnormality Labels in MIT-BIH Dataset
标签名 标签名 左束支传导阻滞 右束支传导阻滞 心室融合心跳 房性期前收缩 交界性逸搏 正常心跳 室性期前收缩 异常房性早搏 表 4 TP, FP, FN的含义
Table 4 Meanings of TP, FP and FN
指标名称 含义 TP 将正例预测为正例的数量 FP 将负例预测为正例的数量 FN 将正例预测为负例的数量 表 5 真实数据集上AFP,CV,DDF方法的对比
Table 5 Comparison of AFP, CV and DDF on Real Dataset
% 方法 precision recall F1 df1 不清洗 57.74 55.95 55.24 AFP 62.70 60.45 60.43 5.19 CV-S1 61.15 56.03 56.30 1.06 CV-S2 58.26 55.69 55.46 0.22 CV-S3 58.59 56.51 55.07 −0.17 DDF 63.65 57.41 58.37 3.13 -
[1] World Health Organization. Cardio-vascular diseases (CVDs) [EB/OL]. [2021-06-11]. https:// www.who.int/en/news-room/fact-sheets/detail/cardiovascular-diseases-(cvds)
[2] Liu Feifei, Liu Chengyu, Zhao Lina, et al. An open access database for evaluating the algorithms of electrocardiogram rhythm and morphology abnormality detection[J]. Journal of Medical Imaging and Health Informatics, 2018, 8(7): 1368−1373 doi: 10.1166/jmihi.2018.2442
[3] 杨虎. 心肌梗死心电图诊断与进展[M]//心电图专业人员培训教材. 北京: 北京大学医学出版社, 2005: 18−34 Yang Hu. Diagnosis of myocardial infarction in electrocardiogram and recent progress [M]//Course Book of Electrocardiogram Specialty. Beijing: Beijing University Medical Press, 2005: 18−34 (in Chinese)
[4] 田枫,沈旭昆. 弱标签环境下基于语义邻域学习的图像标注[J]. 计算机研究与发展,2014,51(8):1821−1832 Tian Feng, Shen Xukun. Image annotation by semantic neighborhood learning from weakly labeled dataset[J]. Journal of Computer Research and Development, 2014, 51(8): 1821−1832 (in Chinese)
[5] 金林鹏,董军. 面向临床心电图分析的深层学习算法研究[J]. 中国科学:信息科学,2015,45(3):398−416 Jin Linpeng, Dong Jun. Deep learning research on clinical electrocardiogram analysis[J]. SCIENTIA SINICA Informationis, 2015, 45(3): 398−416 (in Chinese)
[6] 郑伟哲,仇鹏,韦娟. 弱标签环境下基于多尺度注意力融合的声音识别检测[J]. 计算机科学,2020,47(5):120−123 Zheng Weizhe, Qiu Peng, Wei Juan. Sound recognition and detection based on multi-scale attention fusion in weak label environment[J]. Computer Science, 2020, 47(5): 120−123 (in Chinese)
[7] Li Yaoguang, Cui Wei. Identifying the mislabeled training samples of ECG signals using machine learning[J]. Biomedical Signal Processing and Control, 2019, 47: 168−176 doi: 10.1016/j.bspc.2018.08.026
[8] Pasolli E, Melgani F. Genetic algorithm-based method for mitigating label noise issue in ECG signal classification[J]. Biomedical Signal Processing and Control, 2015, 19: 130−136 doi: 10.1016/j.bspc.2014.10.013
[9] Clifford G D, Liu Chengyu, Moody B, et al. AF classification from a short single lead ECG recording: The PhysioNet/computing in cardiology challenge 2017[C/OL]//Proc of the 18th Computing in Cardiology(CinC). Piscataway, NJ: IEEE, 2017[2022-02-02]. https://cinc.org/archives/ 2017/pdf/065−469.pdf
[10] Cristina G V, Alexander B, Oriella G, et al. Two will do: Convolutional neural network with asymmetric loss, self-learning label correction, and hand-crafted features for imbalanced multi-label ECG data classification[C/OL]//Proc of the 22nd Computing in Cardiology. Piscataway, NJ: IEEE, 2021[2022-02-02]. https://www.cinc.org/archives/ 2021/pdf/CinC2021−024.pdf
[11] Frenay B, Verleysen M. Classification in the presence of label noise: A survey[J]. IEEE Transactions on Neural Networks and Learning Systems, 2014, 25(5): 845−869 doi: 10.1109/TNNLS.2013.2292894
[12] Han Yufei, Sun Guolei, Shen Yun, et al. Multi-label learning with highly incomplete data via collaborative embedding[C]//Proc of the 24th ACM SIGKDD Int Conf on Knowledge Discovery and Data Mining. New York: ACM, 2018: 1494−1503
[13] Wu Lei, Jin Rong, Jain A K. Tag completion for image retrieval[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(3): 716−727 doi: 10.1109/TPAMI.2012.124
[14] Zhou Zhihua. A brief introduction to weakly supervised learning[J]. National Science Review, 2017, 5(1): 44−53
[15] Varma P, Ré C. Snuba: Automating weak supervision to label training data[J]. Proceedings of the VLDB Endowment, 2018, 12(3): 223−236 doi: 10.14778/3291264.3291268
[16] Lee W S, Liu Bing. Learning with positive and unlabeled examples using weighted logistic regression[C]//Proc of the 20th Int Conf on Machine Learning. Palo Alto, CA: AAAI, 2003: 448−455
[17] Na B, Kim H, Song K, et al. Deep generative positive-unlabeled learning under selection bias[C]// Proc of the 29th ACM Int Conf on Information and Knowledge Management. New York: ACM, 2020: 1155–1164
[18] Dong Haochen, Li Yufeng, Zhou Zhihua. Learning from semi-supervised weak-label data [C]// Proc of the 32nd AAAI on Artificial Intelligence. Palo Alto, CA: AAAI, 2018: 2926−2933
[19] 丁家满,刘楠,周蜀杰,等. 基于正则化的半监督弱标签分类方法[J]. 计算机学报,2022,45(1):69−81 Ding Jiaman, Liu Nan, Zhou Shujie, et al. Semi-supervised weak-label classification method by regularization[J]. Chinese Journal of Computers, 2022, 45(1): 69−81 (in Chinese)
[20] Ding Hu, Xu Jinhui. Random gradient descent tree: A combinatorial approach for SVM with outliers [C]// Proc of the 29th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2015: 2561−2567
[21] Xu Guibiao, Cao Zheng, Hu Baogang, et al. Robust support vector machines based on the rescaled hinge loss function[J]. Pattern Recognition, 2017, 63: 139−148 doi: 10.1016/j.patcog.2016.09.045
[22] He Fengxiang, Liu Tongliang, Geoffrey I W, et al. Instance-dependent PU learning by Bayesian optimal relabeling [J]. arXiv preprint, arXiv: 1808. 02180, 2018
[23] Basile T M A, Mauro N D, Esposito F, et al. Density estimators for positive-unlabeled learning[M]// New Frontiers in Mining Complex Patterns. Berlin: Springer, 2017: 49−64
[24] Chaudhari S, Shevade S. Learning from positive and unlabelled examples using maximum margin clustering[C]// LNCS 7665: Proc of the 19th Int Conf on Neural Information Processing. Berlin: Springer, 2012: 465−473
[25] Gong Chen, Shi Hong, Liu Tongliang, et al. Loss decomposition and centroid estimation for positive and unlabeled learning[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021, 43(3): 918−932 doi: 10.1109/TPAMI.2019.2941684
[26] Zhang Minling, Zhou Zhihua. A review on multi-label learning algorithms[J]. IEEE Transactions on Knowledge and Data Engineering, 2014, 26(8): 1819−1837 doi: 10.1109/TKDE.2013.39
[27] Gibaja E, Ventura S. A tutorial on multilabel learning[J]. ACM Computing Surveys, 2015, 47(3): 1−38
[28] Boutell M R, Luo Jiebo, Shen Xipeng, et al. Learning multi-label scene classification[J]. Pattern Recognition, 2004, 37(9): 1757−1771 doi: 10.1016/j.patcog.2004.03.009
[29] Read J, Pfahringer B, Holmes G, et al. Classifier chains for multi-label classification[J]. Machine Learning, 2011, 85(3): 333−359 doi: 10.1007/s10994-011-5256-5
[30] Fürnkranz J, Hüllermeier E, Mencía E L, et al. Multilabel classification via calibrated label ranking[J]. Machine Learning, 2008, 73(2): 133−153 doi: 10.1007/s10994-008-5064-8
[31] Tsoumakas G, Katakis I, Vlahavas I. Random K-Labelsets for multi-label classification[J]. IEEE Transactions on Knowledge and Data Engineering, 2011, 23(7): 1079−1089 doi: 10.1109/TKDE.2010.164
[32] Zhang Minling, Zhou Zhihua. ML-KNN: A lazy learning approach to multi-label learning[J]. Pattern Recognition, 2007, 40(7): 2038−2048 doi: 10.1016/j.patcog.2006.12.019
[33] Clare A, King R D. Knowledge discovery in multi-label phenotype data[C]//Proc of the 5th European Conf on Principles of Data Mining and Knowledge Discovery. Berlin: Springer, 2001: 42−53
[34] Elisseeff A, Weston J. A kernel method for multi-labelled classification[C]// Proc of the 14th Int Conf on Neural Information Processing Systems: Natural and Synthetic. Cambridge, MA: MIT Press, 2001: 681−687
[35] 李峰,苗夺谦,张志飞,等. 基于互信息的粒化特征加权多标签学习K近邻算法[J]. 计算机研究与发展,2017,54(5):1024−1035 Li Feng, Miao Duoqian, Zhang Zhifei, et al. Mutual information based granular feature weighted k-nearest neighbors algorithm for multi-label learning[J]. Journal of Computer Research and Development, 2017, 54(5): 1024−1035 (in Chinese)
[36] Liu Tongliang, Tao Dacheng. Classification with noisy labels by importance reweighting[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 38(3): 447−461 doi: 10.1109/TPAMI.2015.2456899
[37] Himanshu K, Naresh M, Sastry P S. Robust learning of multi-label classifiers under label noise[C]// Proc of the 7th ACM India Special Interest Group on Knowledge Discovery and Data Mining. New York: ACM, 2020: 90−97
[38] 陈庆强,王文剑,姜高霞. 基于数据分布的标签噪声过滤[J]. 清华大学学报:自然科学版,2019,59(4):262−269 Chen Qingqiang, Wang Wenjian, Jiang Gaoxia. Label noise filtering based on the data distribution[J]. Journal of Tsinghua University: Science and Technology, 2019, 59(4): 262−269 (in Chinese)
[39] Han Jingyu, Sun Guangpeng, Song Xinhai, et al. Detecting ECG abnormalities using an ensemble framework enhanced by Bayesian belief network[J]. Biomedical Signal Processing and Control, 2022, 72(A): 103320
[40] Liu F T, Ting K M, Zhou Zhihua. Isolation-based anomaly detection[J]. ACM Transactions on Knowledge Discovery from Data, 2012, 6(1): 1−39
[41] Ferguson T S. A Bayesian analysis of some nonparametric problems[J]. The Annals of Statistics, 1973, 1(2): 209−230
[42] David M B, Michael I J. Variational methods for the Dirichlet process[C]// Proc of the 21st Int Conf on Machine Learning. New York: ACM, 2004: 89−96
[43] Černý V. Thermo dynamical approach to the traveling salesman problem: An efficient simulation algorithm[J]. Journal of Optimization Theory and Applications, 1985, 45: 41−51 doi: 10.1007/BF00940812
[44] Han Jiawei, Kamber M, Pei Jian. Data Mining: Concepts and Techniques[M]. 3rd ed. San Francisco: Morgan Kaufmann, 2012: 38−47
[45] George M, Roger M. MIT-BIH Arrhythmia Database [DB/OL]. (2005-02-24)[2021-03-07]. https://physionet.org/content/mitdb/1.0.0/
-
期刊类型引用(1)
1. 张凯威,张玲. 颜色感知的双通道反射消除算法. 计算机系统应用. 2025(03): 277-285 . 百度学术
其他类型引用(2)