Processing math: 0%
  • 中国精品科技期刊
  • CCF推荐A类中文期刊
  • 计算领域高质量科技期刊T1类
高级检索

通用域适应综述

何秋妍, 邓明华

何秋妍, 邓明华. 通用域适应综述[J]. 计算机研究与发展, 2024, 61(1): 120-144. DOI: 10.7544/issn1000-1239.202220935
引用本文: 何秋妍, 邓明华. 通用域适应综述[J]. 计算机研究与发展, 2024, 61(1): 120-144. DOI: 10.7544/issn1000-1239.202220935
He Qiuyan, Deng Minghua. Survey of Universal Domain Adaptation[J]. Journal of Computer Research and Development, 2024, 61(1): 120-144. DOI: 10.7544/issn1000-1239.202220935
Citation: He Qiuyan, Deng Minghua. Survey of Universal Domain Adaptation[J]. Journal of Computer Research and Development, 2024, 61(1): 120-144. DOI: 10.7544/issn1000-1239.202220935
何秋妍, 邓明华. 通用域适应综述[J]. 计算机研究与发展, 2024, 61(1): 120-144. CSTR: 32373.14.issn1000-1239.202220935
引用本文: 何秋妍, 邓明华. 通用域适应综述[J]. 计算机研究与发展, 2024, 61(1): 120-144. CSTR: 32373.14.issn1000-1239.202220935
He Qiuyan, Deng Minghua. Survey of Universal Domain Adaptation[J]. Journal of Computer Research and Development, 2024, 61(1): 120-144. CSTR: 32373.14.issn1000-1239.202220935
Citation: He Qiuyan, Deng Minghua. Survey of Universal Domain Adaptation[J]. Journal of Computer Research and Development, 2024, 61(1): 120-144. CSTR: 32373.14.issn1000-1239.202220935

通用域适应综述

基金项目: 国家重点研发计划项目(2021YFF1200902);国家自然科学基金项目(32270689,12126305)
详细信息
    作者简介:

    何秋妍: 1997年生. 博士研究生. 主要研究方向为生物信息学、机器学习

    邓明华: 1969年生. 博士,教授,博士生导师. 主要研究方向为生物信息学、计算生物学

    通讯作者:

    邓明华(dengmh@math.pku.edu.cn

  • 中图分类号: TP183

Survey of Universal Domain Adaptation

Funds: This work was supported by the National Key Research and Development Program of China (2021YFF1200902) and the National Natural Science Foundation of China (32270689,12126305).
More Information
    Author Bio:

    He Qiuyan: born in 1997. PhD candidate. Her main research interests include bioinformatics and machine learning

    Deng Minghua: born in 1969. PhD, professor, PhD supervisor. His main research interests include bioinformatics and computational biology

  • 摘要:

    域适应问题放宽了传统机器学习问题关于训练样本和测试样本同分布的假设,在域间差异存在的情况下从富有标签的源域迁移知识到缺少标签的目标域. 但现有域适应方法大多依赖于对源域和目标域标签集合的相对关系的假设,不贴合实际应用场景,因此,通用域适应问题考虑如何在缺少源域和目标域的标签集合先验信息的情况下,实现对目标域的标记. 在此过程中,通用域适应方法需要判定目标域样本是否属于源域类别,克服域间差异和潜在的类别差异,在源域和目标域共有类上完成标签的迁移. 首先从问题设置与方法策略2方面,对通用域适应方法进行梳理;然后通过实验对比了典型方法,进而分析了通用域适应问题的研究难点;随后整理了现有方法的应用情况,对与之有关的实际应用问题进行了分析;最后探讨了通用域适应问题未来研究方向.

    Abstract:

    Domain adaptation relaxes the assumption that test data follows the same distribution as training data in traditional machine learning, and transfers knowledge from label-rich source domain to label-scarce target domain when domain bias exists. However, most domain adaptation methods make assumptions about the relative relationship between the label space of source domain and target domain which limits the application of these methods in reality. Therefore, universal domain adaptation is proposed to label target data without prior information of label spaces of source domain and target domain. Generally, a universal domain adaptation model needs to solve several problems. Firstly, it is desired to judge whether a target sample belongs to classes in source domain. Then it ought to transfer knowledge of common classes shared by source domain and target domain to label target samples, as well as dealing with the domain bias and potential category shift. Due to its practicability, universal domain adaptation has gained more and more attention now. Many branches of universal domain adaptation have been proposed, and researchers are trying to apply it onto datasets different from images. In this review, we conduct an exhaustive survey of universal domain adaptation methods till now from the point of problem setting and strategies. Then we compare typical methods and analyze the difficulties in the universal domain adaptation. After that, we introduce current applications of universal domain adaptation. Meanwhile, we analyze relevant research areas briefly. Lastly, we discuss the problems of universal domain adaptation that can be studied further.

  • 物联网指的是物体与物体之间的互联网络,它通过无线传感技术,利用传感器获取物体和环境的信息,实现物理设备之间、物理设备与网络之间信息传输与资源共享[1]. 一般来说,物联网系统架构中通过逻辑控制器来感知物理环境的状态并调度物理设备以提供想要的服务. 将设备控制逻辑从控制器中分离出来,可以方便物联网系统的设计和支持系统的演化,从而减少物联网系统的开发和维护成本,提高物联网系统架构的灵活性. 这种将设备逻辑控制从控制器中分离出来的物联网系统,在一定程度上可以认为是一种智能系统.

    物联网系统架构中的核心逻辑控制器使用规则来控制业务逻辑,规则一般由2部分构成:约束部分和动作部分. 约束部分是物联网系统中的实体状态构成的条件,这些条件随着物联网系统规模的扩大而变得复杂. 当约束部分包含的条件所组成的逻辑表达式成立时,触发规则的动作部分,从而改变物联网系统中某些实体的状态. 而这些实体状态的改变,将触发物联网系统中的其他规则,从而导致物联网系统的状态发生新的变化. 当物联网系统中实体的状态,不能使得所有规则约束部分的条件得到满足时,系统将产生规则间的冲突,从而使得物联网系统的运行出现问题.

    图1是典型的物联网系统架构,主要分为外部元素、网络层、控制系统3部分. 外部元素包括传感器和设备. 传感器是信息流动的源头,可以采集温度、湿度、光强、压力等物理量;设备包括可编程的硬件,是信息流动的目的地. 网络层完成信息传输,实现外部元素与控制系统的连接[2-3]. 控制系统完成物理设备的逻辑控制,是信息的加工处理部分.

    图  1  典型的物联网系统架构
    Figure  1.  Typical Internet of things system architecture

    图2是使用规则推理作为控制系统核心的架构,它包括交互处理模块和规则推理模块,交互处理模块将环境和设备的状态数据格式化后传递到规则推理模块,并根据规则推理信息来控制设备状态. 规则推理模块包括知识和推理引擎. 知识是由逻辑构成的规则,当知识部署在推理机中,推理机可以根据知识,对输入的外部元素的状态数据进行逻辑推理[4].

    图  2  规则推理控制系统架构
    Figure  2.  Rule inference control system architecture

    在物联网系统中,规则调度流程大致是这样的:外部状态数据通过网络层传递进控制系统. 交互处理模块将状态数据格式化后传递到规则推理模块. 规则推理模块经过推理,输出控制信息传递到交互处理模块. 交互处理模块根据控制信息生成设备控制命令,通过网络层发送到相应的控制设备.

    在一些复杂的物联网运行的场景中,如果2条或多条规则出现冲突,带来的后果是比较严重的,甚至是灾难性的. 例如,智能会议室中投影仪开启或关闭的规则出现混乱,导致会议无法正常进行. 无人驾驶的物联网系统,如果因为规则的冲突,导致传递给车辆的信息是错误的,导致无人驾驶车辆出现偏离正常行驶路线,甚至导致车毁人亡的灾难事件.

    图3表示2种典型的物联网中的规则冲突案例. 图3(a)中,用户编写2条规则R1R2,当环境温度为22°C时,2条规则都被触发. 电暖气制热与空调制冷,对环境温度产生相反的影响,从而产生消极影响冲突.

    图  3  规则冲突案例
    Figure  3.  Rule conflict cases

    图3(b)中,用户编写3条规则R3R4R5,当环境光强为2000 lm时,3条规则都被触发. 受到规则R3R4的影响,窗帘处于不断开关的状态,从而产生执行矛盾冲突.

    图3(a)和图3(b)中所展示的规则间的冲突是由于现有的物联网规则冲突的分类还不够精细,使得已有的冲突检测方法不一定能检测到这2种规则冲突,从而出现规则冲突漏检的问题.

    针对物联网系统中存在的规则冲突的问题,一些学者对此展开研究. Shehara等人[5]提出一种需求交互分类法,用于对软件系统中的需求交互进行分类和识别. 文献[5]提出的分类法是一个4层金字塔的形式,在第1层定义6个主要交互类别,在第2层定义17个交互子类别,在第3层定义29个交互类型,在第4层定义29个交互场景,每个交互场景都有一个相应的交互检测指南来描述如何检测交互. 该文献还提出一种半形式化的冲突检测方法IRIS (identifying requirements interactions using semiformal)来识别需求冲突,成为形式化方法的重要基础. Hu等人[6]通过分析智能家居系统的本体模型,实现知识重用和上下文语义建模,提出基于Web语义的策略冲突检测方法SPIDER(semantic Web-based policy interaction detection with rules),来探测智能家庭服务中的规则冲突,为本体编辑工具Protégé[7]和规则引擎工具Jess[8]提供功能支持. 然而IRIS和SPIDER这2种方法在规则冲突分类时只考虑离散的系统状态. 例如图3(a)所示的案例1,用户只考虑到设备开、关等的离散状态,不能得知温度这样连续状态的变化范围,从而出现规则冲突漏检现象. Sun等人[9]在对智能家居现状的分析基础上,提出一种基于用户、触发器、环境实体和作动器(user, triggers, environment entities, and actuators, UTEA)的冲突检测方法,他们通过用户、触发器、环境实体和执行器的建模方法,探测智能家具系统的规则冲突,为连续的系统状态提供解决方法,并引入用户优先级的权限控制. 方法UTEA解决在智能家居中,规则增加所带来的规则冗余、冲突等问题. 然而此方法需要依赖系统的初始状态,没有被触发的规则不被算法检测,导致检测的准确性下降. 例如规则冲突案例2中如果当环境光强初始为4000 lm,并且灯处于关闭状态时,3条规则都没有被触发. 此时UTEA方法不能检测出规则冲突.

    这些研究在解决物联网系统中的规则冲突问题上取得一定的效果,但是这些研究对规则冲突类型分析还不是很全面,并且检测的准确性有待提高.

    为此,本文提出一种物联网系统的形式化规则冲突检测方法(formal rule conflict detection,FRCD). 该方法首先利用形式化的方法将物联网中的规则及不同的规则冲突进行建模,同时考虑到连续的系统状态量. 这样针对不同的规则冲突,对这些规则的形式化表达进行区分,并且不依赖于系统的初始状态,从而使得不同的规则冲突能够清楚地得到检测. 然后,方法FRCD能够对输入的物联网规则进行解析,得到规则的各种条件,基于解析的结果,对这些条件进行分解,这样可以帮助简化规则条件逻辑. 最后,根据不同的规则冲突类型,检测出相应的冲突.

    本文的主要贡献包括3方面:

    1) 通过调研和分析已有的物联网系统的规则,将目前的物联网系统中的规则冲突细分为7类,分别是执行覆盖冲突、执行矛盾冲突、消极影响冲突、独占资源冲突、直接忽略依赖冲突、直接循环依赖冲突、间接循环依赖冲突.

    2) 基于对物联网系统的规则冲突分类,对不同的规则冲突进行形式化表示,使得冲突的检测能够自动化进行,且针对不同的规则冲突能够进行很好地区分,在一定程度上能提高规则冲突检测的准确性.

    3) 设计并实现规则冲突检测的原型系统,在2个物联网系统中进行实验验证. 实验的结果表明,本文的方法FRCD在物联网系统的规则冲突检测的F1值上,表现比其他3种冲突检测方法更优秀.

    Kim[10]针对由RIF[11]规则推理引起的授权问题,提出应用图标记算法,解决由规则推断引起的RDF[12]元组安全签名不一致的问题. Yu等人[13]提出授权规则规范语言模型,解决同一个服务被授权模型里的规则同时接受和拒绝的问题. Fisler等人[14]分析基于角色的规则访问控制策略,认为多终端决策图是一种可扩展的访问控制策略解决方法,是实现规则访问控制策略的验证方法. Abdullah等人[15]提出一种形式化规则检查器,通过控制器安全策略,以确保控制器和执行器的行为安全性. Wang等人[16]针对物联网安全审计日志分散在各个设备上,不能用于重建安全事务工作流的问题,提出一种以平台为中心的物联网集中审计方法,此方法对物联网应用程序和设备应用编程接口进行高效的自动化测试,以生成包括恶意行为在内的系统活动审计日志. Bu等人[17]针对错误的设备控制对系统正确性产生影响的问题,提出一种端到端的线性混合自动机模型,用来协助非专业物联网用户进行规则可信检查,确保物联网系统可用性. Ma[18]认为基于规则图的方法,可以解决数据不一致性问题,并利用规则图来描述规则的层次结构,动态评估数据的一致性. Nandi[19]为了解决用户在编写规则触发部分经常犯错误的问题,开发一种静态技术,根据用户编写的动作,自动生成正确的规则触发条件. Abe等人[20]为解决规则调用的数据缺失问题,抽取物联网描述符号来标准化规则,从而提高规则的质量. Yang等人[21]通过Petri网的形式验证规则系统,并推导出规则间的关联矩阵,解决规则的规范化和完整性的验证,避免基于规则的系统受到规则结构错误的影响. Wang等人[22]提出一种计算执行可满足性的框架,用于发现规则内部的漏洞,但在实践中发现由于物联网平台的封闭性,这种模型的信息流很难获得. 为了解决这个问题,文献[22]的作者基于自然语言处理开发用于推断规则信息流的算法.

    Fang和Lu[23]针对软件定义网络中的规则冲突问题,通过等量划分分区包级别的方法,解决软件定义网络中交换机流量条目产生的规则冲突. Cui等人[24]针对基于软件定义网络的交换机中流规则产生的冲突导致网络功能失效的问题,设计一种基于事务的流规则冲突检测方法,这种方法可以隔离不同网络的流规则,以避免不同网络功能之间的干扰. Batisra等人[25]提出一种基于一阶逻辑的冲突检测方法,解决OpenFlow网络中随着交换机和主机数量的增加,管理流变得复杂而出现的规则冲突. Magill和Blum[26]针对规则可能源于不同的来源而产生的一致性问题,他们借鉴特征交互的经验,扩展无线传感技术,解决在无线传感器网络中不同来源的冲突规则导致一致性维护问题. Born等人[27]通过扩展模型转换工具,解决基于规则的模型转换中发生的冲突和依赖. Jiang等人[28]针对一个大型自组织系统中子系统间具有利益和价值的冲突问题,使用逻辑形式化事件推演,使得每个子系统能够发现和解决其系统自身内部的规则冲突. Zhang等人[29]通过计算概率描述节点状态作业的权重,得到逻辑推理规则的冲突度量. Diller等人[30]提出一种从不一致的语言中提取语义的方法,并以正态性假设的形式扩展规则表达方式,解决规则中自然语言表达知识产生的冲突,然而他们没有考虑物联网系统中的规则冲突. Shehara等人[5]提出一种需求交互分类法,用于对软件系统中的需求交互进行分类和识别,并提出一种半形式化的冲突检测方法(IRIS)来识别需求冲突,并且开发可以应用到特定领域的插件[31]. Shah等人[32]提出一种检测物联网系统中不完整规则的机制,同时考虑条件独立的触发条件引起的规则冲突,这种方法把规则看作使用基于事件的编程语言的程序,实现对规则不完整性和冲突的检测,然而能检测的冲突类型不够全面. 李秀[33]基于知识图谱,对智能家居领域内的作动器进行隐式冲突检测,根据作动器功能进行自动分类,实现不限类型的作动器设备之间的隐式规则冲突检测. Lin等人[34]通过设计规则的形式化模型,把这些规则定义为一个元组,包含触发器、执行器和状态,然后通过分类、组合的方法对规则进行处理,从而描述规则之间的冗余关系,消除和避免冗余的规则出现,提高系统执行效率.

    本节所提的研究工作对规则冲突类型分析不全面,并且检测结果的准确性不高,造成规则冲突漏检和错检的问题. 本文工作对这些形式化方法进行改进,针对物联网系统的规则冲突进行检测.

    为了更清楚地表达物联网系统中的规则,以及区分不同的规则冲突类型,本文针对物联网系统中的规则,给出相应的形式化结构. 物联网规则涉及到控制主体、动作、触发条件、规则、符号5个成分,具体结构如图4所示.

    图  4  规则结构
    Figure  4.  Rule structure

    1) 控制主体sub由标识id、主体类型type、占用标志mon、主体属性attribute、属性值value构成. 其中type, attribute是字符串类型,mon={0,1},value为数值类型.

    控制主体可表示为sub={idtypemonattributevalue}.

    2) 动作action由执行动作的控制主体sub、被动作影响的属性attribute、动作关系运算符op、操作的属性值value构成. 其中op={<,=,>,\geqslant ,≠}.

    动作可表示为action={subattributeopvalue}.

    动作的集合表示为actions={actioni) | 0 \leqslant i<nn \in \mathbb{N} }.

    3) 触发条件condition由控制主体类型type、约束属性attribute、约束关系运算符op、约束属性值value构成. 其中type表示引用上述规则成分中的控制主体sub里的元素type.

    触发条件可表示为condition={typeattributeopvalue}.

    触发条件的集合可以表示为conditions= {conditioni) | 0 \leqslant i<nn \in \mathbb{N} }.

    4) 规则ruleid标识、触发条件conditions、动作actions构成.

    规则可表示为rule={idconditionsactions}.

    规则的集合可以表示为rules={rulei)|0 \leqslant i<nn \in \mathbb{N} } .

    5)为了表达连续的系统状态,定义运算符#,将离散的系统状态数值value转化成区间范围. 具体为:

    op\# value\left\{\begin{split} &value,op={“}={”},\\ &(value,+\infty ),op={“} > {”},\\ &(-\infty ,value),op={“} <{”},\\ &[value,+\infty ),op={“}\geqslant {”},\\ &(-\infty ,value],op={“}\leqslant {”},\\ &(-\infty ,value)\cup (value,+\infty ),op={“}\ne {”}.\end{split} \right.

    其中value是一个数值,在添加符号#后,数值value与关系符op进行运算,将数值value转换成连续的区间范围;−∞代表负无穷,+∞代表正无穷,()是开区间,[] 是闭区间,(] 是开闭区间,[ )是闭开区间.

    通过以上规则结构表示,可以清晰地表达下面的规则交互关系.

    规则间的冲突是由规则交互关系引起的,为了深入分析规则冲突类型,首先分析规则交互关系. 2个规则的约束条件部分和动作部分的影响,称为规则的交互关系. 通过对规则间存在的交互关系进行分析,总结出相容触发条件、控制同一非独占主体、控制同一独占主体、相同控制动作、相反控制动作、互斥影响值、规则Ri触发条件依赖规则Rj的动作、规则Ri触发条件依赖规则Rj的反向动作,8种规则交互关系如表1所示.

    表  1  规则交互关系
    Table  1.  Rule Interaction
    交互关系名称符号表示
    相容触发条件CC(ComCon)
    控制同一非独占主体SSS(SamShareSub)
    控制同一独占主体SMS(SamMonSub)
    相同控制动作SA(SamAct)
    相反控制动作DA(DifAct)
    互斥影响值MV(MutVal)
    规则Ri触发条件依赖规则Rj的动作RCRi,Rj)(RelyCon)
    规则Ri触发条件依赖规则Rj的反向动作ORRiRj)(OppRely)
    下载: 导出CSV 
    | 显示表格

    1) CC表示2个规则可以在同一个系统场景中触发,称为相容触发条件;

    2) SSS表示2个规则控制同一个非独占类型主体,称为控制同一非独占主体;

    3) SMS表示2规则控制同一个独占类型主体,称为控制同一独占主体;

    4) SA表示2个规则拥有相同的控制动作,称为相同控制动作;

    5) DA表示2个规则拥有相反的控制动作,称为相反控制动作;

    6) MV表示2个规则对环境属性影响是互斥的,称为互斥影响值;

    7) RCRiRj)表示规则Ri触发条件依赖规则Rj的动作,称为规则Ri触发条件依赖规则Rj的动作;

    8) ORRiRj)表示规则 Ri触发条件依赖规则Rj的反向动作,称为规则Ri触发条件依赖规则Rj的反向动作.

    通过以上8个规则交互关系的总结,为下面的规则冲突类型的形式化表达提供符号表示.

    由于规则之间存在交互关系,使得规则间产生冲突. 为了更清晰地描述规则的冲突,本文通过调研和分析物联网系统中的规则交互关系,将目前的物联网系统中的规则冲突分为7类,分别是:执行覆盖冲突、执行矛盾冲突、消极影响冲突、独占资源冲突、直接忽略依赖冲突、直接循环依赖冲突、间接循环依赖冲突.

    规则的冲突类型以及形式化表达如表2所示.

    表  2  规则冲突类型
    Table  2.  Rule Conflict Type
    冲突类型形式化表达关系
    执行覆盖冲突CCSSS SA非对称
    执行矛盾冲突CC SSS DA对称
    消极影响冲突CC MV对称
    独占资源冲突CC SMS对称
    直接忽略依赖冲突ORRi,Rj非对称
    直接循环依赖冲突RCRi,Rj)∩ RCRj,Ri对称
    间接循环依赖冲突RCt1,t2) ∩ RCt2,t3)∩…∩ RCti−1Ri) ∩ RCRi,t1对称
    下载: 导出CSV 
    | 显示表格

    类规则冲突所表达的含义为:

    1) 一个规则的所有动作包含在另一个规则中,导致前一条规则是冗余的,称为执行覆盖冲突;

    2) 系统执行2个规则的先后顺序不同,导致系统状态不同,称2个规则互为执行矛盾冲突;

    3) 2个规则的动作影响同一个属性,导致一个规则影响另一个规则的执行效率,称2个规则互为消极影响冲突;

    4) 2个规则调用同一个独占资源,称2个规则互为独占资源冲突;

    5) 规则Rj的触发条件依赖规则Ri的相反动作,导致规则Rj永远不被触发,称规则Rj直接忽略依赖规则Ri

    6) 规则Ri的触发条件依赖规则Rj的动作,规则Rj的触发条件依赖规则Ri的动作,导致系统进入死锁状态,称2个规则互为直接循环依赖冲突;

    7) 多条规则间的触发条件、动作形成依赖环路,导致系统进入死锁状态,称这些规则互为间接循环依赖冲突.

    表2中的对称关系表示2个规则调换表述顺序,表达的语义不变. 非对称关系表示2个规则调换表述顺序,表达的语义发生改变. 例如规则Ri依赖规则Rj与规则Rj依赖规则Ri,调换规则表述顺序后,表达的语义不一样,属于非对称关系.

    经过以上的规则冲突类型总结以及形式化定义,总结出物联网智能系统中规则冲突的特点,并且能对这些规则冲突进行区分,能够比较容易地对这些冲突进行检测.

    规则冲突检测方法流程如图5所示. 该方法流程主要包括2部分,分别是规则预处理和规则冲突计算.

    图  5  规则冲突检测方法流程
    Figure  5.  The workflow of rule conflict detection method

    规则冲突检测方法的输入是已有的规则库和待检测的规则,已有的规则库是指在进行规则冲突检测之前,就已经存在的规则集合;待检测的规则是指需要与已有规则库进行检测是否存在冲突的规则.

    在进行规则检测前,需要对输入的规则库和待检测规则进行预处理. 首先,需要将规则解析成粒度较小的规则元素,目的是将输入的规则解析成可以用作形式化表达的元素. 随后进行规则分解,目的是将复杂的规则分解为只包含与逻辑关系的规则. 规则预处理之后,得到分解之后的规则库与待检测的规则. 接下来需要对规则冲突进行分析,通过规则交互关系分析和规则冲突检测,得到最终的规则冲突检测结果.

    规则预处理包括规则解析和规则分解2个步骤.

    规则解析的目的是将输入的规则解析成可以形式化表达的元素. 首先,待检测的规则和规则库里的规则输入到规则解析子模块;然后,根据物联网系统规则的形式化结构,将文本类型的规则解析成由id标识、触发条件conditions、动作actions构成的形式化元素;最后,分别输出规则元素库和规则元素.

    规则分解是为了简化包含复杂逻辑的规则,这样可以便于后续的规则冲突检测. 本文利用析取范式将规则进行分解. 例如规则R1经过析取范式转化得到R2R2可以表达为触发条件只包含“与”逻辑关系的2个规则R3R4. 此过程将同时包含“与”“或”逻辑关系的规则R1,分解成为只包含“与”逻辑关系的规则R3R4.

    R_1:(c_1 \cup c_2) \cap c_3 \Rightarrow a_1,a_2,…,a_n .
    R_2:(c_1 \cap c_3) \cup (c_2 \cap c_3) \Rightarrow a_1,a_2,…,a_n .
    \begin{aligned} &{}\\&R_3:c_1 \cap c_3 \Rightarrow a_1,a_2,…,a_n . \end{aligned}
    R_4:c_2 \cap c_3 \Rightarrow a_1,a_2,…,a_n .

    规则分解步骤首先输入规则元素库和规则元素;然后,经过上述析取范式分解;最后,输出分解之后的规则库与待检测的规则.

    规则交互关系分析是后续规则冲突检测的基础,对于任意2个规则,它们之间的交互关系可以采用4个步骤进行分析,首先,遍历2个规则的约束部分和动作部分;其次,获取规则的形式化元素;然后,将形式化元素依据规则交互关系形式化表达,匹配出相应的规则交互关系;最后,输出2个规则的交互关系.

    规则交互关系分析如算法1所示. 算法1输入规则RiRj,输出规则关系re. 算法1的行②③分别遍历RiRj的约束conditions部分和动作actions部分. 行④~㉗获取规则的形式化元素,依据表1定义的规则交互关系,设置规则关系变量re的标志位. 行㉘输出存储2个规则交互关系的变量re. 最终计算出待检测规则与规则库所有规则的交互关系. 规则交互关系名称用表1中符号缩写表示,部分符号依赖于图4的规则结构.

    算法1. 规则交互关系分析算法.

    输入:规则Ri,规则Rj

    输出:规则交互关系re.

    relationRiRj);

    ② for (AC \in Ri.conditionsAA \in Ri. actions

    ③  for (BC \in Rj.conditions, BA \in Rj.actions

    ④   if!(2个规则条件部分type

    attribute相同and它们的

    op#value没有交集) then

    ⑤     re.CC = 1;

    ⑥   end if

    ⑦   if(2个规则动作部分控制同一个

    sub and它们不是独占设备)

    then

    ⑧     re.SSS= 1;

    ⑨   else if(2个规则动作部分控制同

    一个sub and它们是独占设备) then

    ⑩     re.SMS = 1;

    ⑪   end if

    ⑫  end for

    ⑬  if (2个规则动作部分的type相同

    and它们的op#values是包含关系)

    then

    ⑭    re.SA = 1;

    ⑮  end if

    ⑯  if (2个规则动作部分的type相同

    and它们的op#value没有交集)

    then

    ⑰    re.DA = 1;

    ⑱  end if

    ⑲  if(2个规则的动作部分控制不同的

    sub and它们的op#value没有交集)

    then

    ⑳   re.MV = 1;

    ㉑  end if

    ㉒  if(1个规则的条件部分value\in

    一个规则动作部分的op#value and 条件     部分和动作部分的attribute相同)

    then

    ㉓   re.RC = 1;

    ㉔  end if

    ㉕  if(1个规则条件部分的value\in

    另一个规则动作部分的op#value

    补集 and 条件部分和动作部分的

    attribute相同)

    then

    re.OR = 1;

    ㉖  end if

    ㉗ end for

    ㉘ retutn re.

    获得规则间的交互关系之后,接下来对规则间的冲突进行检测. 规则之间的冲突检测可以采用4个步骤进行分析:首先,计算待检测规则与规则库里所有规则的依赖关系;其次,获取当前参与检测的2个规则的交互关系;然后,匹配规则冲突类型;最后,输出规则冲突检测信息.

    规则冲突检测如算法2所示. 为了简化表达,规则交互关系名称用表1中符号缩写表示. 算法2输入规则库RDB和待检测规则Ri,输出规则冲突检测信息. 算法2的行②定义变量relyM,它是MAP数据类型,它的键是规则id,它的值是当前规则所依赖的其他规则id组成的队列,用来存储规则间的依赖关系信息. 行③~⑪遍历RDB里的所有规则,将此规则的id作为键,直接依赖的所有规则id作为值存到relyM变量中. 行⑫~⑱遍历RDB中的规则Rj,其中Ri, Rj作为函数relation()的输入,得到Ri, Rj的关系re. rerelyM作为函数matchConflict()的输入,根据表2的规则冲突类型来匹配规则冲突信息. 最终计算出待探测规则与规则库里的规则是否有冲突,如果有冲突则输出具体冲突类型. 其中行⑥~⑧调用算法1的规则交互关系分析函数relation().

    算法2. 规则冲突检测算法.

    输入: 规则库RDB,规则Ri

    输出: 冲突信息conflictInfo.

    detectRiRDB);

    ② 定义MAP类型变量relyM

    ③ for (IA \in RDB

    ④  定义Queue类型变量 relyQ

    ⑤  for (IB \in RDB

    ⑥   RAB = relationIAIB);

    ⑦   if (IA.idIB.id and RAB.RC

    then

    ⑧    IB存入relyQ, Ri. id作为 键,relyQ

    作为值存入relyM

    ⑨   end if

    ⑩  end for

    ⑪ end for

    ⑫ for (Rj \in RDB

    ⑬  re = relationRiRj);

    ⑭  conflictInfo = matchConflictrerelyM);

    ⑮  if (conflictInfo\varnothing ) then

    ⑯   return conflictInfo

    ⑰  end if

    ⑱ end for

    ⑲ return “No Conflict”.

    通过算法1和算法2的实现,可以在任何情况下检测到图3(a)和图3(b)中的规则冲突.

    对于图3(a),2条规则R1R2经过规则预处理分别得到:

    conditionR1={room[Environment], temperature, <, 25};

    actionR1={heatertemperature,>,27};

    conditionR2={room[Environment], temperature, >,20};

    actionR2={ air_conditionertemperature,<,15}.

    规则R1R2通过规则交互关系分析,conditionR1中的room[Environment], temperatureconditionR2中的room[Environment], temperature相等但conditionR1中的“<25”与conditionR2中的“>20”不是包含关系,所以它们可以同时触发,使得ComCon字段取值为真;actionR1中的temperatureactionR2中的temperature相等,但是actionR1中的heater不等于conditionR2中的air_conditioner并且actionR1中的“>27”与actionR2中的“<15”没有交集,所以MutVal字段取值为真. 这2个规则经过规则冲突检测,符合消极影响冲突的形式化表达,输出的规则R1R2具有消极影响冲突.

    对于图3(b) ,2条规则R3R4经过规则预处理分别得到:

    conditionR3={light[Light],isOn,=,1};

    actionR3={curtainisOn,=,0};

    conditionR4={light[Light],isOn,=,0};

    actionR4={ curtainisOn,=,1}.

    由于不需要分析规则R5,即可检测到规则冲突,所以R5不再描述. 通过规则交互关系分析,conditionR3中的light[Light], isOnconditionR4中的light[Light], isOn相等,但conditionR3中的“=1”与conditionR4中的“=0”不是包含关系,所以它们可以同时触发,使得ComCon字段取值为真;actionR3中的curtain, isOnactionR4中的curtain, isOn相等,所以字段SamShareSub取值为真; actionR3中的“=0”不等于conditionR4中的“=1”,使得字段DifAct取值为真. 2个规则经过规则冲突检测,符合执行矛盾冲突的形式化表达,输出规则R3R4具有执行矛盾冲突.

    上述的规则检测过程不依赖于真实环境,所以在任何环境下都可以检测到规则冲突. 但本文所比较的3种方法需要在特定的条件下才能检测出这2种规则冲突.

    为了验证所提出的方法的有效性,本文提出3个研究问题:

    问题1.与已有的冲突检测方法相比,本文的方法能检测的规则冲突类型是否更全面.

    问题2.与已有的冲突检测方法相比,本文的方法检测结果效果是否更好.

    问题3.进行方法自身的对比实验,通过删掉方法中的某一部分或某几个部分,来验证方法的有效性.

    本文的实验对象是2个物联网系统,分别为智能会议室模拟系统和智能渔业模拟系统. 这2个系统的介绍及其中所包含的规则如表3表4所示.

    表  3  智能会议室系统介绍
    Table  3.  Introduction to Intelligent Conference Room System
    智能会议室系统规则类型条数规则描述设计原则
    利用物联网技术,通过规则控制会议室环境和多媒体设备的模拟系统. 执行覆盖20每种类型规则包含6种关系运算符=, ≠, <, >, \leqslant , \geqslant . 2种逻辑运算符“与”“或”. 由于非逻辑可以通过关系运算符≠表达,所以这里不包含非逻辑. 参数取值包含边界值和中间值. 1) 依据软件测试技术中的等价类划分和边界值分析原则,设计具有代表性的规则.
    2) 初始化不同场景,确保上述所有类型规则被触发执行.
    执行矛盾22
    消极影响24
    独占资源28
    直接忽略依赖26
    直接循环依赖32
    间接循环依赖45
    场景初始化91
    下载: 导出CSV 
    | 显示表格
    表  4  智能渔业系统介绍
    Table  4.  Introduction to Intelligent Fishery System
    智能渔业系统规则类型条数规则描述设计原则
    利用物联网技术,通过规则控制船舶航行、鱼群捕捞的模拟系统. 执行覆盖22每种类型规则包含6种关系运算符=, ≠, <, >, \leqslant , \geqslant . 2种逻辑运算符“与”“或”. 由于非逻辑可以通过关系运算符≠表达,所以这里不包含非逻辑. 参数取值包含边界值和中间值. 1) 依据软件测试技术中的等价类划分和边界值分析原则,设计具有代表性的规则.
    2) 初始化不同场景,确保上述所有类型规则被触发执行.
    执行矛盾26
    消极影响20
    独占资源24
    直接忽略依赖28
    直接循环依赖30
    间接循环依赖33
    场景初始化86
    下载: 导出CSV 
    | 显示表格

    智能会议室模拟系统是利用物联网技术,通过规则控制会议室环境和多媒体设备的模拟系统,其中规则包括了20条执行覆盖类型规则、22条执行矛盾类型规则、24条消极影响类型规则、28条独占资源类型规则、26条直接忽略依赖类型规则、32条直接循环依赖类型规则、45条间接循环依赖类型规则、91条场景初始化规则.

    智能渔业模拟系统是利用物联网技术,通过规则控制船舶航行、鱼群捕捞的模拟系统,其中规则包括了22条执行覆盖类型规则、26条执行矛盾类型规则、20条消极影响类型规则、24条独占资源类型规则、28条直接忽略依赖类型规则、30条直接循环依赖类型规则、33条间接循环依赖类型规则、86条场景初始化规则.

    实验的软件环境为Jdk 1.8, Maven 3.6, Intelli-JIDEA 2020.1, Drools 7.4. 另外,本文对实验的数据进行处理,3个实验都从规则库的每个类型中随机抽取80%的规则文件进行实验,为了避免规则冲突类型分布不均匀的问题.

    冲突检测不仅要报告出2条规则是否有冲突,还要给出具体出现了哪种冲突. 为此采用精确率(precision,P)、召回率(recall,R)和F1值来作为实验的评估指标[35].

    计算评价指标之前,首先需要计算多分类问题的混淆矩阵,混淆矩阵的每个元素cijij\mathbb{N} )代表样本实际分类i,分类器判定分类j的计数;再计算实际属于i类型样本wi的二分混淆矩阵元素a,b,c,d;最后计算评价指标F1(wi). 其中

    \begin{gathered} a = \sum\limits_{i = 1}^m {{c_{ii}}} , b = \sum\limits_{i = 1}^m {\sum\limits_{l = 1,l \ne i}^m c_{il} } , c = \sum\limits_{i = 1}^m {\sum\limits_{k = 1,k \ne i}^m c_{ki} } , \\ d = \sum\limits_{k = 1,k \ne i}^m {\sum\limits_{l = 1,l \ne i}^m c_{kl} } (i\text{,}k\text{,}l\in {\mathbb{N}}). \end{gathered}
    R\left( {{w_i}} \right) = a/\left( {a + b} \right) \text{,} (1)
    P\left( {{w_i}} \right) = a/\left( {a + c} \right) \text{,} (2)
    \begin{gathered} F1\left( {{w_i}} \right) = \frac{{2 \times P\left( {{w_i}} \right) \times R\left( {{w_i}} \right)}}{{P\left( {{w_i}} \right) + R\left( {{w_i}} \right)}} \\ \\ \end{gathered} . (3)

    实验中执行1次规则冲突检测方法,将算法得出的规则冲突结果与真实规则冲突结果采用以上评估指标进行量化.

    1)问题1.与已有的冲突检测方法相比,本文的方法能检测的规则冲突类型是否更全面.

    为了探究本文的方法能检测的规则冲突类型是否更全面,将本文的方法FRCD与现有的3种规则冲突检测方法对比,实验结果如表5所示. 其中FRCD检测到7种冲突,UTEA检测到3种冲突,SPIDER检测到4种冲突,IRIS检测到3种冲突.

    表  5  4种方法对不同冲突类型的检测结果
    Table  5.  Detection Results of Different Types of Conflics by Four Methods
    冲突类型FRCDUTEASPIDERIRIS
    执行覆盖
    执行矛盾
    消极影响
    独占资源×××
    直接忽略依赖××
    直接循环依赖×
    间接循环依赖××
    注:“√”代表方法能检测到这种冲突;“×”代表方法不能检测到这种冲突;“△”代表方法支持这种冲突类型检测,但在本次实验中没有检测到.
    下载: 导出CSV 
    | 显示表格

    SPIDER支持直接循环依赖,但在本次实验中没有检测到. 因为SPIDER算法是在系统进入冲突状态才检测到冲突,但本实验的物联网系统执行了这2种类型规则,将进入死锁状态,导致系统崩溃,所以这种冲突检测方法不适用.

    UTEA支持直接循环依赖、间接循环依赖2种类型的冲突检测,但在本次实验中没有检测到. 因为UTEA算法是在系统进入冲突状态才检测到冲突,但本实验的物联网系统执行了直接循环依赖和间接循环依赖这2种类型规则,将进入死锁状态,导致系统崩溃,所以这2种冲突检测方法不适用.

    本文通过调研和分析已有的物联网系统的规则,依据规则间的环路结构总结出直接循环依赖冲突、间接循环依赖冲突. 规则间冗余总结出执行覆盖冲突. 规则的约束条件部分描述了系统资源状态,可以总结出独占资源冲突. 规则的动作部分描述了系统执行状态可以总结出执行矛盾冲突、消极影响冲突、直接忽略依赖冲突. 针对物联网系统规则的每个部分,FRCD方法都进行了详细的冲突类型总结,因此可以得出结论,本文的方法能检测的规则冲突类型更全.

    2)问题2.与已有的冲突检测方法相比,本文的方法检测结果的F1值是否更高.

    为了探究本文的方法检测结果的F1值是否更高,将本文的方法FRCD与现有的3种规则冲突检测算法对比.

    模拟智能会议室系统实验对比结果如表6所示,FRCD算法检测到7种冲突,覆盖了所有冲突类型,它们的F1指标均值为78.3%. UTEA检测到3种冲突:执行覆盖、执行矛盾、消极影响,它们的F1指标均值为68.6%. SPIDER检测到4种冲突:执行覆盖、执行矛盾、消极影响、直接忽略依赖,它们的F1指标均值为57.9%. IRIS 检测到3种冲突:执行覆盖、执行矛盾、消极影响,它们的F1指标均值为69.0%. 在智能会议室系统上,FRCD算法的检测效果超过了其他3种算法.

    表  6  智能会议室系统不同方法的精确率、召回率和F1值结果对比
    Table  6.  PR and F1 Score Results Comparison of Intelligent Conference System for Different Methods %
    冲突类型FRCDUTEASPIDERIRIS
    PRF1PRF1PRF1PRF1
    执行覆盖81.89085.71008084.2379052.645.590.960
    执行矛盾91.710095.783.390.958.872.742.153.383.347.660
    消极影响10071.483.310091.762.910083.390.910076.987
    独占资源10085.792.3×××××××××
    直接忽略依赖35.591.751.2×××5026.734.8×××
    直接循环依赖10047.864.7×××
    间接循环依赖1006075××××××
    注:“△”代表方法支持这种冲突类型检测,但在本次实验中没有检测到;“×”代表方法不能检测到这种冲突.
    下载: 导出CSV 
    | 显示表格

    模拟智能渔业系统实验对比结果如表7所示,FRCD算法检测到7种冲突,覆盖了所有冲突类型,它们的F1指标均值为90.9%. UTEA检测到3种冲突:执行覆盖、执行矛盾、消极影响,它们的F1指标均值为87.1%. SPIDER检测到4种冲突:执行覆盖、执行矛盾、消极影响、直接忽略依赖,它们的F1指标均值为63.1%. IRIS 检测到3种冲突:执行覆盖、执行矛盾、消极影响,它们的F1指标均值为77.5%. 在智能渔业船舶系统上,FRCD算法的检测效果超过了其他3种算法.

    表  7  智能渔业船舶系统不同方法的精确率、召回率和F1值结果对比
    Table  7.  PR and F1 Score Results Comparison of Intelligent Fisher System for Different Methods %
    冲突类型FRCDUTEASPIDERIRIS
    PRF1PRF1PRF1PRF1
    执行覆盖10010010010081.89045.590.960.643.590.983.3
    执行矛盾10010010085.792.388.91004864.91005066.7
    消极影响88.98084.21007082.41007082.41007082.4
    独占资源10083.390×××××××××
    直接忽略依赖88.985.787.3×××10028.644.4×××
    直接循环依赖1008088.9×××
    间接循环依赖1007585.7××××××
    注:“△”代表方法支持这种冲突类型检测,但在本次实验中没有检测到;“×”代表方法不能检测到这种冲突.
    下载: 导出CSV 
    | 显示表格

    本文进一步分析了FRCD检测效果优于其他3种方法的原因. 其中UTEA需要初始化规则的场景,而FRCD则不需要,这样可以避免为不充分的初始化场景制定而影响冲突检测效果. 并且实现了直接循环依赖、间接循环依赖2种冲突静态检测,避免系统因循环依赖的规则而进入死锁状态.

    另外,FRCD算法考虑了连续的系统变量,但是SPIDER与IRIS只考虑规则中离散的系统状态. 在本文的实验案例对应的物联网系统中,存在连续的系统状态,因此对这些连续的系统状态检测是必要的.

    实验分析可以得出,本文的方法检测结果的F1值更高.

    3)问题3.通过逐渐删掉方法中的某一部分或某几个部分,来验证方法的有效性.

    本文在模拟智能会议室系统上,通过逐一删掉表1中定义的规则交互关系进行实验. 其中RCRiRj)和ORRiRj)不参与删除,因为去掉其中任意一个会导致某种类型冲突不能检测. 实验结果如表8所示,FRCD在所有类型冲突指标都是最高的.

    表  8  减少规则交互关系在不同方法F1值结果对比
    Table  8.  F1 Score Result Comparison of Reduce Rule Interaction for Different Methods %
    冲突类型FRCDFRCD-CCFRCD-SSSFRCD-SMSFRCD-SAFRCD-DAFRCD-MV
    执行覆盖85.785.758.16045.56060
    执行矛盾95.795.761.164.764.748.964.7
    消极影响83.38060.658.88083.331.2
    独占资源92.392.363.2402583.363.2
    直接忽略依赖51.248.948.946.840.739.338.6
    直接循环依赖64.757.957.157.157.159.557.9
    间接循环依赖7570.668.668.668.670.666.7
    下载: 导出CSV 
    | 显示表格

    FRCD-CC代表去掉CC部分,它除了执行覆盖、执行矛盾、独占资源类型的评价指标不变,其他冲突类型指标都有所降低. 因为CC用来推断2条规则是否在同一个场景中触发,如果它取值为假,不会进入与其相关的冲突类型匹配,如果它取值为真,将进一步探测与其相关的冲突类型. 去掉CC部分,相当于CC取值永远为真,导致某些规则检测错误.

    FRCD-SSS代表去掉SSS部分,FRCD-SMS代表去掉SMS部分,这2个实验的检测指标都有所降低. 因为这2个实验没有考虑到设备是否可以被共享,一些涉及设备并发的规则冲突无法检测,导致冲突检测指标降低.

    FRCD-SA代表去掉SA部分,FRCD-DA代表去掉DA部分,这2个实验的检测指标,除了消极影响类型的评价指标不变,其他指标都有所降低. 因为这2个实验没有考虑规则全部的动作类型,SADA同时考虑才能构成规则动作的全集,它们只检测了一部分的动作类型,导致冲突检测指标降低.

    FRCD-MV代表去掉MV部分,它的检测指标都有所降低. 因为此实验没有考虑不同规则影响到同一个属性值而造成的冲突,导致冲突检测指标降低.

    实验分析可以得出,本文的方法有必要考虑所有的规则交互关系部分.

    本文提出了一种针对物联网系统架构中的核心部件系统控制逻辑中规则的冲突检测方法. 该方法首先对物联网系统的规则进行分析与归类,利用形式化的方法将物联网中的规则及不同的规则冲突进行建模. 针对不同的规则冲突,它们的形式化表达有所不同,从而使得不同的规则冲突能够清楚地得到检测. 然后,该方法能够对输入的物联网规则进行解析,得到规则的各种条件和动作,基于解析的结果,对这些条件进行分解,这样可以帮助简化规则条件逻辑. 最后,根据不同的规则冲突类型,检测出相应的冲突. 本文在2个物联网系统中开展的实验,与已有的3种物联网规则冲突检测方法进行对比,实验结果显示,本文方法的规则冲突检测效果,是这4种方法中最好的. 但是,本文提出的方法还存在完善的方面. 例如,物联网规则冲突类型分析还不够全面,同时算法只能报告哪些规则间存在冲突,不能给出修改成正确规则的指导建议,还缺少了规则间冲突关系可视化展示,这些都是将来有待研究的工作.

    作者贡献声明:杨波提出了算法思路、实验方案和修改论文;郭浩然负责完成实验并撰写论文;冯俊辉参与实验;李戈提出实验方案并修改论文;金芝提出指导意见并修改论文.

  • 图  1   按源域和目标域标签集合相对关系对域适应问题进行分类

    Figure  1.   Classification of domain adaptation by the relationship of label sets of source domain and target domain

    图  2   对抗类方法的一般网络架构、对抗思想与预测方法

    Figure  2.   The general network structure, adversarial idea and inference method of adversarial methods

    图  3   自编码网络结构

    Figure  3.   The network structure of autoencoder

    图  4   对比学习概念图

    Figure  4.   The idea diagram of contrastive learning

    图  5   寻找最相似样本或类中心来靠近的邻域聚类

    Figure  5.   Neighborhood clustering: Find the most similar sample or centroid to approach

    图  6   依据熵划分目标域样本以训练

    Figure  6.   Separating target domain samples by entropy for training

    图  7   寻找互近邻消除域间差异进行标记

    Figure  7.   Find MNN to reduce domain bias and transfer labels

    图  8   对抗学习的理想效果与现实问题

    Figure  8.   Ideal result and realistic problems of adversarial methods

    图  9   使用VisDA时每种域均含私有类的各类样本数

    Figure  9.   Sample numbers of each class when each domain contains its private classes using VisDA

    图  10   以VisDA为例仅用源域标签训练分类器得到的预测最大概率

    Figure  10.   Maximum probability predicted by the classifier trained only using source labels on VisDA

    图  11   原特征空间中图片的拼接与混合示例

    Figure  11.   Demo of merging split images and mixing up images in raw feature space

    图  12   以VisDA为例仅用源域数据训练后的目标样本熵

    Figure  12.   Entropy of target samples when only training with source data on VisDA

    表  1   对抗类通用域适应方法使用的策略及未知类判别方法

    Table  1   Strategies and Unknown Classes Detection Ways Used in Adversarial UniDA Methods

    方法策略未知类判别方法
    多分
    类器
    分类器含
    未知类
    用类
    中心
    熵分离
    样本
    邻域
    聚类
    互近邻对比
    学习
    数据
    增广
    样本
    混合
    重构
    网络
    其他
    UAN[7]样本权重
    UMAN[12]样本权重
    ADCL[14]Gradient Embeddings样本权重
    文献[15]概率估计
    CMU[16]样本权重
    I-UAN[17]样本权重
    DCN[18]样本权重
    文献[19]outlier分类器
    文献[20] s\left(x\right)
    HFDN[21]分层解耦样本权重
    GATE[22]分类器
    Uni3DA[23]自监督权重优化样本权重
    下载: 导出CSV

    表  2   非对抗类通用域适应方法使用的策略和未知类判别方法

    Table  2   Strategies and Unknown Classes Detection Ways Used in Non-Adversarial UniDA Methods

    方法策略未知类判别方法
    多分
    类器
    分类器含
    未知类
    用类
    中心
    用熵分
    离样本
    邻域
    聚类
    互近邻对比
    学习
    数据
    增广
    样本
    混合
    重构
    网络
    其他
    USFDA[9]模拟负样本分类器
    UMAD[10]iscore
    UB2DA[11]邻域一致性
    文献[13]利用预测差异
    DANCE[24]
    文献[25]
    文献[26]
    DCC[27]目标域类中心
    MATHS[28]统计检验未知类预测概率
    OVANet[29]多维和二元分类器
    TNT[30]EDL模型total evidence score
    下载: 导出CSV

    表  3   对抗类通用域适应方法的对抗损失

    Table  3   Adversarial Loss of Adversarial UniDA Methods

    方法对抗损失
    UAN[7] -{E}_{x\sim {P}_{\mathrm{s}}\left(x\right)}{w}^{\mathrm{s}}\left(x\right)\mathrm{ln}D\left(G\left(x\right)\right)-{E}_{x\sim {P}_{\mathrm{t}}\left(x\right)}{w}^{\mathrm{t}}\left(x\right)\mathrm{ln}\left(1-D\left(G\left(x\right)\right)\right)
    UMAN[12]-\dfrac{1}{M}\mathop { {\sum } }\limits_{i=1}^{M}{E}_{x\sim {P}_{i}\left(x\right)}{w}^{\mathrm{s} }\left(x\right)\mathrm{ln}D\left(G\left(x\right)\right)-{E}_{x\sim {P}_{\mathrm{t} }\left(x\right)}{w}^{\mathrm{t} }\left(x\right)\mathrm{ln}\left(1-D\left(G\left(x\right)\right)\right)
    ADCL[14] {E}_{x\in {\mathcal{D}}_{\mathrm{s}}\left(x\right)}{w}^{\mathrm{s}}\left(x\right)\mathrm{ln}\left(1-D\left(G\left(x\right)\right)\right)+{E}_{x\in {\mathcal{D}}_{\mathrm{U}\mathrm{T}}}\left[{1}_{{w}^{\mathrm{t}}\left({x}^{\mathrm{t}}\right) > {w}_{\alpha }\left(t\right)}\mathrm{ln}D\left(G\left(x\right)\right)\right]+{E}_{x\in {\mathcal{D}}_{\mathrm{L}\mathrm{T}},y\in {L}_{\mathrm{s}}}\mathrm{ln}D\left(G\left(x\right)\right)
    文献[15] -{E}_{x\sim {P}_{\mathrm{s}}\left(x\right)}w\left(x\right)\mathrm{ln}D\left(G\left(x\right)\right)-{E}_{x\sim {P}_{\mathrm{t}}\left(x\right)}w\left(x\right)\mathrm{ln}\left(1-D\left(G\left(x\right)\right)\right)
    Uni3DA[23] -{E}_{x\sim {P}_{\mathrm{s}}\left(x\right)}{w}^{\mathrm{s}}\left(x\right)\mathrm{ln}D\left(G\left(x\right)\right)-{E}_{x\sim {P}_{\mathrm{t}}\left(x\right)}{w}^{\mathrm{t}}\left(x\right)\mathrm{ln}\left(1-D\left(G\left(x\right)\right)\right)
    CMU[16] -{E}_{x\sim {P}_{\mathrm{s}}\left(x\right)}{w}^{\mathrm{s}}\left(x\right)\mathrm{ln}D\left(G\left(x\right)\right)-{E}_{x\sim {P}_{\mathrm{t}}\left(x\right)}{w}^{\mathrm{t}}\left(x\right)\mathrm{ln}\left(1-D\left(G\left(x\right)\right)\right)
    I-UAN[17] -{E}_{x\sim {P}_{\mathrm{s}}\left(x\right)}{w}^{\mathrm{s}}\left(x\right)\mathrm{ln}D\left(G\left(x\right)\right)-{E}_{x\sim {P}_{\mathrm{t}}\left(x\right)}{w}^{\mathrm{t}}\left(x\right)\mathrm{ln}\left(1-D\left(G\left(x\right)\right)\right)
    DCN[18] -{E}_{x\sim {P}_{\mathrm{s}}\left(x\right)}w\left(x\right)\mathrm{ln}D\left(G\left(x\right)\right)-{E}_{x\sim {P}_{\mathrm{t}}\left(x\right)}w\left(x\right)\mathrm{ln}\left(1-D\left(G\left(x\right)\right)\right)
    文献[19] -{\beta }_{\mathrm{s}}{E}_{x\sim {P}_{\mathrm{s}}\left(x\right)}{w}^{\mathrm{s}}\left(x\right)\mathrm{ln}D\left(G\left(x\right)\right)-{\beta }_{\mathrm{t}}{E}_{x\sim {P}_{\mathrm{t}}\left(x\right)}{w}^{\mathrm{t}}\left(x\right)\mathrm{ln}\left(1-D\left(G\left(x\right)\right)\right)
    文献[20]-\mathop { {\sum } }\limits_{ {x\sim{P}_{\mathrm{s} } \left(x\right)} }\mathrm{ln}D\left(G\left(x\right)\right)-\mathop { {\sum } }\limits_{x\sim {P}_{\mathrm{t} }\left(x\right)}\mathrm{ln}\left(1-D\left(G\left(x\right)\right)\right)
    HFDN[21] -{E}_{x\sim {P}_{\mathrm{s}}\left(x\right)}\mathrm{ln}D\left({f}_{\mathrm{d}\mathrm{d}}^{\mathrm{s}}\right)-{E}_{x\sim {P}_{\mathrm{t}}\left(x\right)}\mathrm{ln}\left(1-D\left({f}_{\mathrm{d}\mathrm{d}}^{\mathrm{t}}\right)\right)
    GATE[22] -{E}_{x\in {\mathcal{M}}_{\mathrm{s}}\left(x\right)}\mathrm{ln}D\left(G\left(x\right)\right)-{E}_{x\in {\mathcal{M}}_{\mathrm{t}}\left(x\right)}\mathrm{ln}\left(1-D\left(G\left(x\right)\right)\right)
    注:① {P}_{i}\left(x\right) 是UMAN[12]中各源域的特征分布.
     ② {\mathcal{D}}_{\mathrm{U}\mathrm{T}} 是ADCL[14]中无标签的目标域数据集, {\mathcal{D}}_{\mathrm{L}\mathrm{T}} 是模型从目标域中挑选出寻求外部标记的数据集; {w}_{\alpha }\left(t\right) 是动态阈值.
     ③ {f}_{\mathrm{d}\mathrm{d}} 为HFDN[26]中的域特有特征.
     ④ {\mathcal{M}}_{\mathrm{s}}\left(x\right) {\mathcal{M}}_{\mathrm{t}}\left(x\right) 是GATE[27]中各域中可以构成rwMNN对的样本集合.
    下载: 导出CSV

    表  4   对抗类通用域适应方法对抗损失中的权重及未知类判别方法

    Table  4   Weights in Adversarial Loss and Unknown Classes Detection Ways of Adversarial UniDA Methods

    方法 {w}^{\mathrm{s}}\left(x\right) {w}^{\mathrm{t}}\left(x\right) 未知类判别
    UAN[7]\frac{H\left(\hat{\boldsymbol{p} }\right)}{\mathrm{ln}{K}_{\mathrm{s} } }-{\hat{d} }^{{'}}\left(x\right){\hat{d} }^{{'} }\left(x\right)-\frac{H\left(\hat{\boldsymbol{p} }\right)}{\mathrm{ln}{K}_{\mathrm{s} } } {w}^{\mathrm{t}}\left(x\right) < {w}_{0}
    UMAN[12] {\boldsymbol{V}}_{\mathrm{T}\mathrm{P}\mathrm{M}\mathrm{R}}\left[{y}^{\mathrm{s}}\right] {\hat{m}}_{\mathrm{f}}\left(x\right){\boldsymbol{V}}_{\mathrm{T}\mathrm{P}\mathrm{M}\mathrm{R}}\left[{\hat{y}}^{\mathrm{t}}\right] {w}^{\mathrm{t}}\left(x\right) < {w}_{0}
    ADCL[14] {\boldsymbol{V}}_{{y}^{\mathrm{s}}} ,\boldsymbol{V}={{avg} }_{ {w}^{\mathrm{t} }\left({x}^{\mathrm{t} }\right) > {w}_{\alpha }\left(t\right)}{\hat{y} }^{\mathrm{t} } \mathrm{max}\hat{\boldsymbol{p}}\left(x\right)+d\left(x\right) {w}^{\mathrm{t}}\left(x\right)\le {w}_{\alpha }\left(t\right)
    文献[15] P\left(x\in {L}_{\mathrm{s}}\cap {L}_{\mathrm{t}}\right) P\left(x\in {L}_{\mathrm{s}}\cap {L}_{\mathrm{t}}\right) P\left(x\in {L}_{\mathrm{s}}\cap {L}_{\mathrm{t}}\right)\le \frac{1}{2}
    Uni3DA[23] \frac{H\left(\hat{\boldsymbol{p}}\right)}{\mathrm{ln}{K}_{\mathrm{s}}}-{\hat{d}}^{{'} }\left(x\right) {\hat{d}}^{{'} }\left(x\right)-\frac{H\left(\hat{\boldsymbol{p}}\right)}{\mathrm{ln}{K}_{\mathrm{s}}} {w}^{\mathrm{t}}\left(x\right) < {w}_{0}
    CMU[16]{\boldsymbol{V} }_{ {y}^{\mathrm{s} } },\boldsymbol{V}={{avg} }_{ {w}^{\mathrm{t} }\left({x}^{\mathrm{t} }\right) > {w}_{0} }{\hat{y} }^{\mathrm{t} }\dfrac{\left(1-{w}_{\text{ent} }\right)+\left(1-{w}_{\text{cons} }\right)+{w}_{\text{conf} } }{3} {w}^{\mathrm{t}}\left(x\right)\le {w}_{0}
    I-UAN[17] {\boldsymbol{V}}_{\mathrm{T}\mathrm{P}\mathrm{M}\mathrm{R}}\left[{y}^{s}\right] \mathrm{max}\hat{\boldsymbol{p}}\left(x\right) {w}^{\mathrm{t}}\left(x\right) < {w}_{0}
    DCN[18] \mathrm{max}\hat{\boldsymbol{p}}\left(x\right)+d\left(x\right)+\frac{H\left(\hat{\boldsymbol{p}}\left(x\right)\right)}{\mathrm{ln}{K}_{\mathrm{s}}} \mathrm{max}\hat{\boldsymbol{p}}\left(x\right)+d\left(x\right)+\frac{H\left(\hat{\boldsymbol{p}}\left(x\right)\right)}{\mathrm{ln}{K}_{\mathrm{s}}} {w}^{\mathrm{t}}\left(x\right) < {w}_{0}
    文献[19] {\hat{w}}^{\mathrm{s},\mathrm{d}}+{\hat{w}}^{\mathrm{s},\mathrm{e}} {\hat{w}}^{\mathrm{t},\mathrm{d}}+{\hat{w}}^{\mathrm{t},\mathrm{e}} Outlier Identifier
    文献[20] 1 1 s\left(x\right)\le {s}_{\beta }\left(t\right) , s\left(x\right)=\mathrm{max}\hat{\boldsymbol{p}}\left(x\right)+d\left(x\right)
    HFDN[21] {\frac{D\left(R\left({f}_{\mathrm{d}\mathrm{c}},0\right)\right)}{{E}_{x\in {\mathcal{D}}_{\mathrm{s}}\left(x\right)}D\left(R\left({f}_{\mathrm{d}\mathrm{c}},0\right)\right)}}^{\mathrm{⑥}} \frac{D\left(R\left({f}_{\mathrm{d}\mathrm{c}},0\right)\right)}{{E}_{x\in {\mathcal{D}}_{\mathrm{t}}\left(x\right)}D\left(R\left({f}_{\mathrm{d}\mathrm{c}},0\right)\right)} {w}^{\mathrm{t}}\left(x\right) < {w}_{0}
    GATE[22] {1}_{\{x\in {\mathcal{M}}_{\mathrm{s}}\}} {1}_{\{x\in {\mathcal{M}}_{\mathrm{t}}\}} {K}_{\mathrm{s}}+1 维分类器
    注:① \hat{\boldsymbol{p}}\left(x\right)={softmax}\left(C\left(G\left(x\right)\right)\right) \hat{y}=\text{arg max}\hat{\boldsymbol{p}}\left(x\right) ,此处 C {K}_{{\rm{s}}} 维分类器. d\left(x\right)=D\left(G\left(x\right)\right) 是生成学习中域判别器输出. H\left(\cdot \right) 为熵函数. {w}_{0} 是给定阈值. {y}^{\mathrm{s}} 是源域样本真实标签. {K}_{\mathrm{s}} 为源域类别数.
     ② {\hat{d}}^{{'} } 在UAN[7]和Uni3DA[17]中是非生成域判别器的输出.
     ③ {\hat{m}}_{\mathrm{f}} 是I-UAN[19]定义的pseudo-margin;{\boldsymbol{V} }_{\mathrm{T}\mathrm{P}\mathrm{M}\mathrm{R} }是pseudo-margin向量I-UAN[19] UMAN[12].
     ④ {\hat{w}}^{\mathrm{s},\mathrm{d}} {\hat{w}}^{\mathrm{t},\mathrm{d}} 是利用样本与类中心距离计算出的权重, {\hat{w}}^{\mathrm{s},\mathrm{e}} {\hat{w}}^{\mathrm{t},\mathrm{e}} 是有域判别器得到的权重.
     ⑤ {s}_{\beta }\left(t\right) 是文献[25]中动态阈值.
     ⑥ R 为HFDN[26]中重构网络, {f}_{\mathrm{d}\mathrm{c}} 为域相关特征分解出的类偏移特征.
    下载: 导出CSV

    表  5   CDA情形下各方法在OfficeHome和VisDA上的平均准确度

    Table  5   Average Accuracy of Each Method over OfficeHome and VisDA Under CDA %

    是否获得
    源域数据
    方法OfficeHome (65/0/0)VisDA
    (12/0/0)
    A2CA2PA2RC2AC2PC2RP2AP2CP2RR2AR2CR2P平均
    UAN[7]14.620.622.816.318.917.423.619.829.427.219.030.121.661.1
    CMU[16]16.920.127.610.521.925.821.121.037.233.127.746.725.823.0
    I-UAN[17]27.640.949.026.434.335.234.827.452.143.931.457.138.349.2
    DANCE[24]54.675.276.258.970.372.160.052.478.668.759.582.274.472.1
    DCC[27]37.443.467.630.956.141.344.129.270.142.936.975.257.847.5
    OVANet[29]34.354.464.534.549.953.532.325.859.850.535.069.555.828.2
    文献[13] (clean)53.970.874.958.168.670.456.651.677.067.657.881.167.471.1
    UB2DA[11](SF)41.959.649.046.255.155.346.634.760.560.741.262.651.17.3
    UB2DA[11](BX)36.157.363.534.252.355.339.028.861.049.738.067.348.511.7
    注:1)OfficeHome (65/0/0)和VisDA (12/0/0)表示实验设置:数据集(共有类数/源域私有类数/目标域私有类数).
     2)A,C,P,R为OfficeHome数据集中Art,Clipart,Product,Real Word数据集缩写;A2C表示源域为A,目标域为C,其余类似.
     3)clean表示文献[13]使用的源域数据标签无噪声.
     4)SF和BX分别表示 source-free 和black-box设置下的UB2DA[11]方法.
     5)黑体数值表示同一实验下同类方法中的最大值.
    下载: 导出CSV

    表  6   PDA情形下各方法在OfficeHome和VisDA上的平均准确度

    Table  6   Average Accuracy of Each Method over OfficeHome and VisDA Under PDA %

    是否获得
    源域数据
    方法OfficeHome (25/40/0)VisDA
    (6/6/0)
    A2CA2PA2RC2AC2PC2RP2AP2CP2RR2AR2CR2P平均
    UAN[7]23.216.410.415.720.621.522.113.120.725.422.720.219.340.2
    CMU[16]24.130.837.813.121.625.022.929.742.436.936.451.431.024.6
    I-UAN[17]33.348.652.834.036.438.840.832.654.049.037.059.743.155.6
    DANCE[24]55.573.182.864.268.176.862.849.083.572.156.581.768.880.7
    DCC[27]50.368.380.449.960.473.155.324.869.228.146.480.657.238.4
    OVANet[29]34.856.068.533.646.349.633.026.258.353.037.968.847.225.5
    文献[13](clean)43.161.670.237.451.260.327.432.365.749.838.972.650.973.4
    UB2DA[11](SF)42.362.566.545.852.955.250.137.264.963.844.471.154.728.3
    UB2DA[11](BX)36.859.363.234.750.953.236.929.157.748.839.366.748.133.8
    注:1)OfficeHome (25/40/0)和VisDA (6/6/0)表示实验设置:数据集(共有类数/源域私有类数/目标域私有类数).
     2)A,C,P,R为OfficeHome数据集中Art,Clipart,Product,Real Word数据集缩写;A2C表示源域为A,目标域为C,其余类似.
     3)clean表示文献[13]使用的源域数据标签无噪声.
     4)SF和BX分别表示 source-free 和black-box设置下的UB2DA[11]方法.
     5)黑体数值表示同一实验下同类方法中的最大值.
    下载: 导出CSV

    表  7   CDA和PDA情形下各方法在Office上的平均准确度

    Table  7   Average Accuracy of Each Method over Office Under CDA and PDA %

    是否获得
    源域数据
    方法Office (31/0/0)Office (10/21/0)
    A2WD2WW2DA2DD2AW2A平均A2WD2WW2DA2DD2AW2A平均
    UAN[7]35.269.071.539.540.741.549.6 43.750.948.267.847.916.545.8
    CMU[16]76.894.094.981.753.556.376.263.994.091.768.981.187.681.2
    I-UAN[17]39.972.677.343.542.342.253.066.291.194.671.285.684.982.3
    DANCE[24]90.398.6100.091.069.769.586.576.292.597.178.391.092.788.0
    DCC[27]77.291.197.459.856.066.774.758.7100.0100.081.738.766.074.2
    OVANet[29]70.195.399.576.039.945.071.058.293.299.174.854.759.973.3
    文献[13] (clean)87.098.399.888.456.059.881.584.777.988.679.259.387.879.6
    UB2DA[11](SF)76.393.599.785.053.055.177.1 67.184.589.379.169.267.976.2
    UB2DA[11](BX)68.290.588.372.553.055.571.367.882.686.179.961.863.873.7
    注:1)Office (31/0/0)和Office (10/21/0)表示实验设置:Office数据集(共有类个数/源域私有类数/目标域私有类数).
     2)A,D,W为Office数据集中Amazon,Dslr,Webcam数据集缩写;A2D表示源域为A,目标域为D,其余类似.
     3)clean表示文献[13]使用的源域数据标签无噪声.
     4)SF和BX分别表示 source-free 和black-box设置下的UB2DA[11]方法.
     5)黑体数值表示同一实验下同类方法中的最大值.
    下载: 导出CSV

    表  8   ODA情形下各方法在OfficeHome和VisDA上的平均准确度

    Table  8   Average Accuracy of Each Method over OfficeHome and VisDA Under ODA %

    是否获得
    源域数据
    方法OfficeHome (25/0/40)VisDA
    (6/0/6)
    A2CA2PA2RC2AC2PC2RP2AP2CP2RR2AR2CR2P平均
    UAN[7]54.671.178.959.362.370.966.556.679.670.961.081.967.859.4
    CMU[16]34.056.469.232.242.651.357.834.457.957.744.966.350.432.6
    I-UAN[17]57.772.982.267.469.775.966.955.777.971.160.480.069.843.5
    DANCE[24]63.881.487.270.971.983.467.457.584.377.068.185.074.863.8
    DCC[27]49.169.280.853.363.267.761.743.878.166.046.074.962.841.3
    OVANet[29]47.568.481.950.360.670.947.341.174.266.249.779.161.447.0
    文献[13] (clean)63.776.584.865.572.680.066.660.182.275.366.782.173.040.4
    UB2DA[11](SF)56.678.583.763.970.578.162.349.681.173.755.382.869.738.0
    UB2DA[11](BX)54.177.786.559.769.378.554.348.881.269.551.582.367.817.3
    注:1)OfficeHome (25/0/40)和VisDA (6/0/6)表示实验设置:数据集(共有类数/源域私有类数/目标域私有类数).
     2)A,C,P,R为OfficeHome数据集中Art,Clipart,Product,Real Word数据集缩写;A2C表示源域为A,目标域为C,其余类似.
     3)clean表示文献[13]使用的源域数据标签无噪声.
     4)SF和BX分别表示 source-free 和black-box设置下的UB2DA[11]方法.
     5)黑体数值表示同一实验下同类方法中的最大值.
    下载: 导出CSV

    表  9   ODA情形下各方法在OfficeHome和VisDA上的H-score

    Table  9   H-score of Each Method over OfficeHome and VisDA Under ODA %

    是否获得
    源域数据
    方法OfficeHome (25/0/40)VisDA
    (6/0/6)
    A2CA2PA2RC2AC2PC2RP2AP2CP2RR2AR2CR2P平均
    UAN[7]20.817.99.919.716.616.920.321.820.612.612.912.616.941.7
    CMU[16]42.255.760.039.545.954.161.242.163.164.353.866.054.027.9
    I-UAN[17]36.241.747.149.440.848.342.534.341.243.335.838.241.615.6
    DANCE[24]53.555.532.047.355.332.255.959.638.729.241.946.145.664.8
    DCC[27]59.173.474.352.763.970.461.354.776.465.558.175.165.49.0
    OVANet[29]58.465.969.661.364.967.958.253.369.168.558.267.063.562.1
    文献[13] (clean)10.94.516.441.013.221.043.622.325.432.912.67.821.05.2
    UB2DA[11](SF)56.063.469.464.165.070.562.753.968.058.551.661.662.144.6
    UB2DA[11](BX)56.564.569.764.766.369.759.454.370.363.751.662.862.818.9
    注:1)OfficeHome (25/0/40)和VisDA (6/0/6)表示实验设置:数据集(共有类数/源域私有类数/目标域私有类数).
     2)A,C,P,R为OfficeHome数据集中Art,Clipart,Product,Real Word数据集缩写;A2C表示源域为A,目标域为C,其余类似.
     3)clean表示文献[13]使用的源域数据标签无噪声.
     4)SF和BX分别表示 source-free 和black-box设置下的UB2DA[11]方法.
     5)黑体数值表示同一实验下同类方法中的最大值.
    下载: 导出CSV

    表  10   OPDA情形下各方法在OfficeHome和VisDA上的平均准确度

    Table  10   Average Accuracy of Each Method over OfficeHome and VisDA Under OPDA %

    是否获得
    源域数据
    方法OfficeHome (10/5/50)VisDA
    (6/3/3)
    A2CA2PA2RC2AC2PC2RP2AP2CP2RR2AR2CR2P平均
    UAN[7]61.679.188.070.573.279.774.759.386.776.260.480.674.246.1
    CMU[16]34.056.469.232.242.651.357.834.478.067.949.572.153.826.5
    I-UAN[17]59.682.790.681.578.088.881.159.889.382.359.283.978.162.8
    DANCE[24]66.886.091.482.979.890.284.067.891.382.468.787.581.670.5
    DCC[27]62.785.891.262.673.983.561.351.788.373.551.286.472.746.7
    OVANet[29]49.579.291.662.066.480.062.946.887.473.652.384.269.747.9
    文献[13] (clean)58.680.687.877.574.786.076.962.087.681.458.781.276.163.9
    UB2DA[11](SF)61.385.494.177.276.487.176.254.792.278.461.187.877.727.2
    UB2DA[11](BX)56.488.094.570.477.691.670.356.092.781.059.989.177.322.0
    注:1)OfficeHome (10/5/50)和VisDA (6/3/3)表示实验设置:数据集(共有类数/源域私有类数/目标域私有类数).
     2)A,C,P,R为OfficeHome数据集中Art,Clipart,Product,Real Word数据集缩写;A2C表示源域为A,目标域为C,其余类似.
     3)clean表示文献[13]使用的源域数据标签无噪声.
     4)SF和BX分别表示 source-free 和black-box设置下的UB2DA[11]方法.
     5)黑体数值表示同一实验下同类方法中的最大值.
    下载: 导出CSV

    表  11   OPDA情形下各方法在OfficeHome和VisDA上的H-score

    Table  11   H-score of Each Method over OfficeHome and VisDA Under OPDA %

    是否获得
    源域数据
    方法OfficeHome (10/5/50)VisDA
    (6/3/3)
    A2CA2PA2RC2AC2PC2RP2AP2CP2RR2AR2CR2P平均
    UAN[7]14.713.315.018.811.515.012.19.516.915.07.48.513.113.7
    CMU[16]42.255.760.039.545.954.161.242.167.764.051.362.053.825.5
    I-UAN[17]23.919.427.231.524.530.227.424.427.529.922.821.425.919.8
    DANCE[24]40.641.334.543.527.536.254.449.741.526.742.552.140.94.0
    DCC[27]62.975.381.328.773.282.468.758.583.374.960.081.769.243.9
    OVANet[29]62.176.380.071.069.775.873.060.180.075.763.679.272.230.0
    文献[13] (clean)5.33.28.526.87.813.525.511.619.59.79.04.212.118.7
    UB2DA[11](SF)63.166.074.571.963.872.370.858.373.368.163.368.667.831.0
    UB2DA[11](BX)61.668.377.372.968.876.770.760.875.572.663.071.069.925.5
    注:1)OfficeHome (10/5/50)和VisDA (6/3/3)表示实验设置:数据集(共有类数/源域私有类数/目标域私有类数).
     2)A,C,P,R为OfficeHome数据集中Art,Clipart,Product,Real Word数据集缩写;A2C表示源域为A,目标域为C,其余类似.
     3)clean表示文献[13]使用的源域数据标签无噪声.
     4)SF和BX分别表示 source-free 和black-box设置下的UB2DA[11]方法.
     5)黑体数值表示同一实验下同类方法中的最大值.
    下载: 导出CSV

    表  12   ODA和OPDA情形下各方法在Office上的平均准确度

    Table  12   Average Accuracy of Each Method over Office Under ODA and OPDA %

    是否获得
    源域数据
    方法Office (10/0/21)Office (10/10/11)
    A2WD2WW2DA2DD2AW2A平均A2WD2WW2DA2DD2AW2A平均
    UAN[7]90.894.093.588.989.689.291.081.693.794.179.184.183.386.0
    CMU[16]82.991.793.487.180.884.286.755.391.693.679.478.087.981.0
    I-UAN[17]51.650.049.851.941.449.849.191.096.798.491.291.791.693.4
    DANCE[24]94.996.596.595.790.991.494.392.197.898.390.091.891.193.5
    DCC[27]87.995.596.891.792.291.892.681.992.392.388.289.985.188.3
    OVANet[29]82.797.296.688.673.688.687.976.596.499.384.966.275.083.0
    文献[13] (clean)84.589.391.089.985.685.287.689.195.697.791.589.388.792.0
    UB2DA[11](SF)87.096.396.492.891.590.392.4 83.798.095.886.189.487.490.1
    UB2DA[11](BX)89.997.696.596.892.791.294.182.797.898.889.291.591.091.8
    注:1)Office (10/0/21)和Office (10/10/11)表示实验设置:Office数据集(共有类个数/源域私有类数/目标域私有类数).
     2)A,D,W为Office数据集中Amazon,Dslr,Webcam数据集缩写;A2D表示源域为A,目标域为D,其余类似.
     3)clean表示文献[13]使用的源域数据标签无噪声.
     4)SF和BX分别表示 source-free 和black-box设置下的UB2DA[11]方法.
     5)黑体数值表示同一实验下同类方法中的最大值.
    下载: 导出CSV

    表  13   ODA和OPDA情形下各方法在Office上的H-score

    Table  13   H-score of Each Method over Office Under ODA and OPDA %

    是否获得
    源域数据
    方法Office (10/0/21) Office (10/10/11)
    A2WD2WW2DA2DD2AW2A平均A2WD2WW2DA2DD2AW2A平均
    UAN[7]48.565.653.844.165.755.455.538.867.361.533.170.456.454.6
    CMU[16]52.050.042.544.254.355.449.783.651.854.750.473.764.663.1
    I-UAN[17]35.528.219.232.627.731.929.283.886.790.389.485.884.086.7
    DANCE[24]67.778.175.872.772.867.972.570.891.489.677.979.071.780.1
    DCC[27]83.890.578.684.682.979.883.476.386.084.785.173.582.481.3
    OVANet[29]84.696.899.687.482.181.888.779.995.295.584.577.582.685.9
    文献[13] (clean)14.78.12.33.510.510.08.249.474.185.273.451.040.562.3
    UB2DA[11](SF)77.580.575.569.387.783.779.1 69.990.973.561.188.683.277.9
    UB2DA[11](BX)80.888.079.481.791.382.583.977.791.495.078.391.389.887.2
    注:1)Office (10/0/21)和Office (10/10/11)表示实验设置:Office数据集(共有类个数/源域私有类数/目标域私有类数).
     2)A,D,W为Office数据集中Amazon,Dslr,Webcam数据集缩写;A2D表示源域为A,目标域为D,其余类似.
     3)clean表示文献[13]使用的源域数据标签无噪声.
     4)SF和BX分别表示 source-free 和black-box设置下的UB2DA[11]方法.
     5)黑体数值表示同一实验下同类方法中的最大值.
    下载: 导出CSV

    表  14   源域为Art、目标域为Clipart的OPDA情形中文献[13]在不同噪声设置下的表现

    Table  14   Performance of Reference[13] Given Different Noise Settings Where Source is Art and Target is Clipart Under OPDA

    噪声类型噪声
    比例
    未知类准
    确度/%
    平均准
    确度/%
    H-score /%运行时间/s
    无噪声0.02.758.65.314223.7
    pairflip0.25.458.79.911096.7
    symmetric0.24.355.68.111161.9
    pairflip0.57.021.210.710675.9
    symmetric0.54.635.08.29598.3
    下载: 导出CSV

    表  15   目标域为Art的双源域OPDA情形下UMAN的表现

    Table  15   UMAN Performance Under OPDA Given Two Source Domains Where Target Domain is Art

    源域1源域2未知类准
    确度/%
    平均准
    确度/%
    H-score
    /%
    运行时间/s
    ClipartProduct5.079.39.419464.3
    ClipartReal World4.378.88.220066.6
    ProductReal World7.078.012.935120.5
    下载: 导出CSV

    表  16   目标域为Clipart的双源域OPDA下UMAN的表现

    Table  16   UMAN Performance Under OPDA Given Two Source Domains Where Target Domain is Clipart

    源域1源域2未知类准
    确度/%
    平均准
    确度/%
    H-score
    /%
    运行时间/s
    ArtProduct12.053.319.838392.6
    ArtReal World10.955.618.537343.9
    ProductReal World9.157.815.837790.3
    下载: 导出CSV

    表  17   3源域OPDA情形下UMAN的表现

    Table  17   UMAN Performance Under OPDA Given Three Source Domains

    目标域未知类准
    确度/%
    平均准
    确度/%
    H-score
    /%
    运行时间/s
    Art2.066.34.043827.7
    Clipart12.257.420.442326.0
    Product4.271.98.039603.2
    Real World3.278.96.133204.4
    下载: 导出CSV
  • [1]

    Pan Jialin Sinno, Yang Qiang. A survey on transfer learning[J]. IEEE Transactions on Knowledge and Data Engineering, 2010, 22(10): 1345−1359 doi: 10.1109/TKDE.2009.191

    [2] 范苍宁,刘鹏,肖婷,等. 深度域适应综述:一般情况与复杂情况[J]. 自动化学报,2021,47(3):515−548 doi: 10.16383/j.aas.c200238

    Fan Cangning, Liu Peng, Xiao Ting, et al. A review of deep domain adaptation: General situation and complex situation[J]. Acta Automatica Sinica, 2021, 47(3): 515−548 (in Chinese) doi: 10.16383/j.aas.c200238

    [3]

    Cao Zhangjie, Long Mingsheng, Wang Jianmin, et al. Partial transfer learning with selective adversarial networks [C]// Proc of the 31st IEEE/CVF Conf on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE, 2018: 2724−2732

    [4]

    Zhang Jing, Ding Zewei, Li Wanqing, et al. Importance weighted adversarial nets for partial domain adaptation [C]// Proc of the 31st IEEE/CVF Conf on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE, 2018: 8156−8164

    [5]

    Busto P P, Gall J. Open set domain adaptation [C]// Proc of the 15th IEEE Int Conf on Computer Vision (ICCV). Piscataway, NJ: IEEE, 2017: 754−763

    [6]

    Saito K, Yamamoto S, Ushiku Y, et al. Open set domain adaptation by backpropagation [C]// Proc of the 15th European Conf on Computer Vision (ECCV). Berlin: Springer, 2018: 156−171

    [7]

    You Kaichao, Long Mingsheng, Cao Zhangjie, et al. Universal domain adaptation [C]// Proc of the 32nd IEEE/CVF Conf on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE, 2019: 2715−2724

    [8]

    Farahani A, Voghoei S, Rasheed K, et al. A brief review of domain adaptation [C]// Proc of the 16th Int Conf on Data Science (ICDATA) and the 19th Int Conf on Information & Knowledge Engineering (IKE). Berlin: Springer, 2021: 877−894

    [9]

    Kundu J N, Venkat N, Rahul M V, et al. Universal source-free domain adaptation [C]// Proc of the 33rd IEEE/CVF Conf on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE, 2020: 4543−4552

    [10]

    Liang Jian, Hu Dapeng, Feng Jiashi, et al. UMAD: Universal model adaptation under domain and category shift [J]. arXiv preprint, arXiv: 2112.08553, 2021

    [11]

    Deng Bin, Zhang Yabin, Tang Hui, et al. On universal black-box domain adaptation [J]. arXiv preprint, arXiv: 2104.04665, 2021

    [12]

    Yin Yueming, Yang Zhen, Hu Haifeng, et al. Universal multi-source domain adaptation for image classification[J]. Pattern Recognition, 2022, 121(1/2): 108238

    [13]

    Yu Qing, Hashimoto A, Ushiku Y. Divergence optimization for noisy universal domain adaptation [C]// Proc of the 34th IEEE/CVF Conf on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE, 2021: 2515−2524

    [14]

    Ma Xinhong, Gao Junyu, Xu Changsheng. Active universal domain adaptation [C]// Proc of the 18th IEEE/CVF Int Conf on Computer Vision (ICCV). Piscataway, NJ: IEEE, 2021: 8948−8957

    [15]

    Chidlovskii B, Sadek A, Wolf C. Universal domain adaptation in ordinal regression [J]. arXiv preprint, arXiv: 2106.11576, 2021

    [16]

    Fu Bo, Cao Zhangjie, Long Mingsheng, et al. Learning to detect open classes for universal domain adaptation [C]// Proc of the 16th European Conf on Computer Vision (ECCV). Berlin: Springer, 2020: 567−583

    [17]

    Yin Yueming, Yang Zhen, Wu Xiaofu, et al. Pseudo-margin-based universal domain adaptation[J]. Knowledge-Based Systems, 2021, 229(1/2): 107315

    [18]

    Cai Ziyun, Song Jie, Zhang Tengfei, et al. Dual contrastive universal adaptation network [C/OL]// Proc of the 22nd IEEE Int Conf on Multimedia and Expo (ICME). Piscataway, NJ: IEEE, 2021[2022-09-09].https://ieeexplore.ieee.org/document/9428238

    [19]

    Zhang Wei, Li Xiang, Ma Hui, et al. Universal domain adaptation in fault diagnostics with hybrid weighted deep adversarial learning[J]. IEEE Transactions on Industrial Informatics, 2021, 17(12): 7957−7967 doi: 10.1109/TII.2021.3064377

    [20]

    Lifshitz O, Wolf L. Sample selection for universal domain adaptation [C]// Proc of the 35th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2021: 8592−8600

    [21]

    Gao Yuan, Chen Peipeng, Gao Yue, et al. Hierarchical feature disentangling network for universal domain adaptation[J]. Pattern Recognition, 2022, 127(1): 108616

    [22]

    Chen Liang, Lou Yihang, He Jianzhong, et al. Geometric anchor correspondence mining with uncertainty modeling for universal domain adaptation [C]// Proc of the 35th IEEE/CVF Conf on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE, 2022: 16134−16143

    [23]

    Ren Yu, Cong Yang, Dong Jiahua, et al. Uni3DA: Universal 3D domain adaptation for object recognition[J]. IEEE Transactions on Circuits and Systems for Video Technolny, 2023, 33(1): 379−392 doi: 10.1109/TCSVT.2022.3202213

    [24]

    Saito K, Kim D, Sclaroff S, et al. Universal domain adaptation through self-supervision [C]// Proc of the 33rd Int Conf on Neural Information Processing Systems. New York: Curran Associates, Inc, 2020: 16282−16292

    [25]

    Cho J. Synthetic source universal domain adaptation through contrastive learning [J]. Sensors, 2021, 21(22): 7539

    [26]

    Zhu Ronghang, Li Sheng. Self-supervised universal domain adaptation with adaptive memory separation [C]// Proc of the 21st IEEE Int Conf on Data Mining (ICDM). Piscataway, NJ: IEEE, 2021: 1547−1552

    [27]

    Li Guangrui, Kang Guoliang, Zhu Yi, et al. Domain consensus clustering for universal domain adaptation [C]// Proc of the 34th IEEE/CVF Conf on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE, 2021: 9752−9761

    [28]

    Chen Liang, Du Qianjin, Lou Yihang, et al. Mutual nearest neighbor contrast and hybrid prototype self-training for universal domain adaptation [C]// Proc of the 36th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2022: 6248−6257

    [29]

    Saito K, Saenko K. OVANet: One-vs-all network for universal domain adaptation [C]// Proc of the 18th IEEE/CVF Int Conf on Computer Vision (ICCV). Piscataway, NJ: IEEE, 2021: 8980−8989

    [30]

    Chen Liang, Lou Yihang, He Jianzhong, et al. Evidential neighborhood contrastive learning for universal domain adaptation [C]// Proc of the 36th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2022: 6258−6267

    [31]

    Ganin Y, Lempitsky V. Unsupervised domain adaptation by backpropagation [C]// Proc of the 32nd Int Conf on Machine Learning. New York: PMLR, 2015: 1180−1189

    [32]

    Kang Guoliang, Jiang Lu, Yang Yi, et al. Contrastive adaptation network for unsupervised domain adaptation [C]// Proc of the 32nd IEEE/CVF Conf on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE, 2019: 4888−4897

    [33]

    Niu Zhenxing, Zhou Mo, Wang Le, et al. Ordinal regression with multiple output CNN for age estimation [C]// Proc of the 29th IEEE Conf on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE, 2016: 4920−4928

    [34]

    Cao Wenzhi, Mirjalili V, Raschka S. Rank consistent ordinal regression for neural networks with application to age estimation[J]. Pattern Recognition Letters, 2020, 140: 325−331 doi: 10.1016/j.patrec.2020.11.008

    [35]

    Verma V, Lamb A, Beckham C, et al. Manifold mixup: Better representations by interpolating hidden states [C]// Proc of the 36th Int Conf on Machine Learning. New York: PMLR, 2019: 6438−6447

    [36]

    Venkateswara H, Eusebio J, Chakraborty S, et al. Deep hashing network for unsupervised domain adaptation [C]// Proc of the 30th IEEE Conf on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE, 2017: 5385−5394

    [37]

    Saito K, Watanabe K, Ushiku Y, et al. Maximum classifier discrepancy for unsupervised domain adaptation [C]// Proc of the 31st IEEE/CVF Conf on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE, 2018: 3723−3732

    [38]

    Hartigan J A, Hartigan P M. The dip test of unimodality[J]. The Annals of Statistics, 1985, 13(1): 70−84

    [39]

    Zhang Hongyi, Cissé M, Dauphin Y N, et al. Mixup: Beyond empirical risk minimization [C/OL]// Proc of the 6th Int Conf on Learning Representations. 2018[2022-09-09].https://openreview.net/forum?id=r1Ddp1-Rb

    [40]

    Sensoy M, Kaplan L, Kandemir M. Evidential deep learning to quantify classification uncertainty [C]// Proc of the 31st Int Conf on Neural Information Processing Systems. New York: Curran Associates, Inc, 2018: 3183−3193

    [41]

    Peng Xingchao, Usman B, Kaushik N, et al. Visda: The visual domain adaptation challenge [J]. arXiv preprint, arXiv: 1710.06924, 2017

    [42]

    Saenko K , Kulis B , Fritz M , et al. Adapting visual category models to new domains [C]// Proc of the 11th European Conf on Computer Vision: Part IV (ECCV’10). Berlin: Springer, 2010: 213–226

    [43]

    Chen Yuhua, Li Wen, Sakaridis C, et al. Domain adaptive faster R-CNN for object detection in the wild [C]// Proc of the 31st IEEE/CVF Conf on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE, 2018: 3339−3348

    [44]

    Saito K, Ushiku Y, Harada T, et al. Strong-weak distribution alignment for adaptive object detection [C]// Proc of the 32nd IEEE/CVF Conf on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE, 2019: 6949−6958

    [45]

    Hsu H K, Yao Chunhan, Tsai Y H, et al. Progressive domain adaptation for object detection [C]// Proc of the 20th IEEE Winter Conf on Applications of Computer Vision (WACV). Piscataway, NJ: IEEE, 2020: 738−746

    [46]

    Chen Cheng, Dou Qi, Chen Hao, et al. Synergistic image and feature adaptation: Towards cross-modality domain adaptation for medical image segmentation [C]// Proc of the 33rd AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2019: 865−872

    [47]

    Liu Yuang, Zhang Wei, Wang Jun. Source-free domain adaptation for semantic segmentation [C]// Proc of the 34th IEEE/CVF Conf on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE, 2021: 1215−1224

    [48]

    Bai Lubin, Du Shihong, Zhang Xiuyuan, et al. Domain adaptation for remote sensing image semantic segmentation: An integrated approach of contrastive learning and adversarial learning [J/OL]. IEEE Transactions on Geoscience and Remote Sensing, 2022[2022-09-09].https://ieeexplore.ieee.org/document/9857935/

    [49]

    He Yufan, Carass A, Zuo Lianrui, et al. Autoencoder based self-supervised test-time adaptation for medical image analysis[J]. Medical Image Analysis, 2021, 72(10): 102136

    [50]

    Liu Xiaofeng, Yoo C, Xing Fangxu, et al. Deep unsupervised domain adaptation: A review of recent advances and perspectives [J]. arXiv preprint, arXiv: 2208.07422, 2022

    [51]

    Saltori C, Lathuilière S, Sebe N, et al. SF-UDA3D: Source-free unsupervised domain adaptation for lidar-based 3D object detection [C]// Proc of the 8th Int Conf on 3D Vision (3DV). Piscataway, NJ: IEEE, 2020: 771−780

    [52]

    Peng Shuwen, Xi Xiaohuan, Wang Cheng, et al. Point-based multilevel domain adaptation for point cloud segmentation [J/OL]. IEEE Geoscience and Remote Sensing Letters, 2022[2022-09-09].https://ieeexplore.ieee.org/document/9272684

    [53]

    Bian Yikai, Xie Jin, Qian Jianjun. Unsupervised domain adaptive point cloud semantic segmentation [C]// Proc of the 7th Asian Conf on Pattern Recognition (ACPR). Berlin: Springer, 2022: 285−298

    [54]

    Pan Boxiao, Cao Zhangjie, Adeli E, et al. Adversarial cross-domain action recognition with co-attention [C]// Proc of the 34th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2020: 11815−11822

    [55]

    Choi J, Sharma G, Schulter S, et al. Shuffle and attend: Video domain adaptation [C]// Proc of the 16th European Conf on Computer Vision (ECCV). Berlin: Springer, 2020: 678−695

    [56]

    Chen Minhung, Li Baopu, Bao Yingze, et al. Action segmentation with joint self-supervised temporal domain adaptation [C]// Proc of the 33rd IEEE/CVF Conf on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE, 2020: 9451−9460

    [57]

    Deng Weijian, Zheng Liang, Ye Qixiang, et al. Image-image domain adaptation with preserved self-similarity and domain-dissimilarity for person re-identification [C]// Proc of the 31st IEEE/CVF Conf on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE, 2018: 994−1003

    [58]

    Mekhazni D, Bhuiyan A, Ekladious G, et al. Unsupervised domain adaptation in the dissimilarity space for person re-identification [C]// Proc of the 16th European Conf on Computer Vision (ECCV). Berlin: Springer, 2020: 159−174

    [59]

    Chen Qingchao, Liu Yang, Albanie S. Mind-the-gap! Unsupervised domain adaptation for text-video retrieval [C]// Proc of the 35th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2021: 1072−1080

    [60]

    Chen Pengfei, Li Leida, Wu Jinjian, et al. Unsupervised curriculum domain adaptation for no-reference video quality assessment [C]// Proc of the 18th IEEE/CVF Int Conf on Computer Vision (ICCV). Piscataway, NJ: IEEE, 2021: 5158−5167

    [61]

    Chen Tsenghung, Liao Yuanhong, Chuang Chingyao Y, et al. Show, adapt and tell: Adversarial training of cross-domain image captioner [C]// Proc of the 15th IEEE Int Conf on Computer Vision (ICCV). Piscataway, NJ: IEEE, 2017: 521−530

    [62]

    Zhao Wentian, Wu Xinxiao, Luo Jiebo. Cross-domain image captioning via cross-modal retrieval and model adaptation[J]. IEEE Transactions on Image Processing, 2021, 30: 1180−1192 doi: 10.1109/TIP.2020.3042086

    [63]

    Ghosal D, Hazarika D, Roy A, et al. Kingdom: Knowledge-guided domain adaptation for sentiment analysis [C]// Proc of the 58th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2020: 3198−3210

    [64]

    Ragab M, Eldele E, Chen Zhenghua, et al. Self-supervised autoregressive domain adaptation for time series data [J/OL]. IEEE Transactions on Neural Networks and Learning Systems, 2022[2022-09-09].https://ieeexplore.ieee.org/document/9804766

    [65]

    Khurana S, Moritz N, Hori T, et al. Unsupervised domain adaptation for speech recognition via uncertainty driven self-training [C]// Proc of the 46th IEEE Int Conf on Acoustics, Speech and Signal Processing (ICASSP). Piscataway, NJ: IEEE, 2021: 6553−6557

    [66]

    Tonutti M, Ruffaldi E, Cattaneo A, et al. Robust and subject-independent driving manoeuvre anticipation through domain-adversarial recurrent neural networks[J]. Robotics and Autonomous Systems, 2019, 115: 162−173 doi: 10.1016/j.robot.2019.02.007

    [67]

    Li Yang, Zheng Wenming, Zong Yuan, et al. A bi-hemisphere domain adversarial neural network model for EEG emotion recognition[J]. IEEE Transactions on Affective Computing, 2021, 12(2): 494−504 doi: 10.1109/TAFFC.2018.2885474

    [68]

    Ouyang Cheng, Kamnitsas K, Biffi C, et al. Data efficient unsupervised domain adaptation for cross-modality image segmentation [C]// Proc of the 22nd Medical Image Computing and Computer Assisted Intervention (MICCAI) . Berlin: Springer, 2019: 669−677

    [69]

    Liu Xiaofeng, Xing Fangxu, Yang Chao, et al. Adapting off-the-shelf source segmenter for target medical image segmentation [C]// Proc of the 24th Medical Image Computing and Computer Assisted Intervention (MICCAI). Berlin: Springer, 2021: 549−559

    [70]

    Hu Jian, Li Xiangjie, Hu Gang, et al. Iterative transfer learning with neural network for clustering and cell type classification in single-cell RNAseq analysis[J]. Nature Machine Intelligence, 2020, 2(10): 607−618 doi: 10.1038/s42256-020-00233-7

    [71]

    Brbić M, Zitnik M, Wang Sheng, et al. MARS: Discovering novel cell types across heterogeneous single-cell experiments[J]. Nature Methods, 2020, 17(12): 1200−1206 doi: 10.1038/s41592-020-00979-3

    [72]

    Chen Liang, Zhai Yuyao, He Qiuyan, et al. Integrating deep supervised, self-supervised and unsupervised learning for single-cell RNA-seq clustering and annotation [J]. Genes, 2020, 11(7): 792

    [73]

    Xie Kaikun, Huang Yu, Zeng Feng, et al. scAIDE: Clustering of large-scale single-cell RNA-seq data reveals putative and rare cell types[J]. NAR Genomics and Bioinformatics, 2020, 2(4): lqaa082 doi: 10.1093/nargab/lqaa082

    [74]

    Yuan Musu, Chen Liang, Deng Minghua. scMRA: A robust deep learning method to annotate scRNA-seq data with multiple reference datasets[J]. Bioinformatics, 2022, 3(1): 738−745

    [75]

    Xu Chenling, Lopez R, Mehlman E, et al. Probabilistic harmonization and annotation of single-cell transcriptomics data with deep generative models[J]. Molecular Systems Biolny, 2021, 17(1): e9620 doi: 10.15252/msb.20209620

  • 期刊类型引用(6)

    1. 孔燕燕,江明明,闫一然,葛徽. 格上高效的支持多属性机构属性签名方案. 淮北师范大学学报(自然科学版). 2025(01): 56-61 . 百度学术
    2. 陈泽宇,刘丽华,王尚平. SM9身份认证方案及其应用研究综述. 计算机工程与应用. 2025(05): 18-31 . 百度学术
    3. 刘行,明洋,王晨豪,赵一. 基于SM9的可验证公平标识广播代理重加密. 计算机学报. 2025(03): 721-737 . 百度学术
    4. 芮志清,梅瑶,陈振哲,吴敬征,凌祥,罗天悦,武延军. SeChain:基于国密算法的RISC-V安全启动机制设计与实现. 计算机研究与发展. 2024(06): 1458-1475 . 本站查看
    5. 李继国,方淳. 基于SM9的指定验证者聚合签名方案. 网络与信息安全学报. 2024(04): 63-71 . 百度学术
    6. 安浩杨,何德彪,包子健,彭聪,罗敏. 基于SM9数字签名的环签名及其在区块链隐私保护中的应用. 计算机研究与发展. 2023(11): 2545-2554 . 本站查看

    其他类型引用(5)

图(12)  /  表(17)
计量
  • 文章访问数:  270
  • HTML全文浏览量:  96
  • PDF下载量:  145
  • 被引次数: 11
出版历程
  • 收稿日期:  2022-11-10
  • 修回日期:  2023-05-14
  • 网络出版日期:  2023-09-20
  • 刊出日期:  2023-12-27

目录

/

返回文章
返回