Processing math: 44%
  • 中国精品科技期刊
  • CCF推荐A类中文期刊
  • 计算领域高质量科技期刊T1类
高级检索

基于多路编码器和双重注意力的古画修复算法

赵磊, 吉柏言, 邢卫, 林怀忠, 林志洁

赵磊, 吉柏言, 邢卫, 林怀忠, 林志洁. 基于多路编码器和双重注意力的古画修复算法[J]. 计算机研究与发展, 2023, 60(12): 2814-2831. DOI: 10.7544/issn1000-1239.202220648
引用本文: 赵磊, 吉柏言, 邢卫, 林怀忠, 林志洁. 基于多路编码器和双重注意力的古画修复算法[J]. 计算机研究与发展, 2023, 60(12): 2814-2831. DOI: 10.7544/issn1000-1239.202220648
Zhao Lei, Ji Boyan, Xing Wei, Lin Huaizhong, Lin Zhijie. Ancient Painting Inpainting Algorithm Based on Multi-Channel Encoder and Dual Attention[J]. Journal of Computer Research and Development, 2023, 60(12): 2814-2831. DOI: 10.7544/issn1000-1239.202220648
Citation: Zhao Lei, Ji Boyan, Xing Wei, Lin Huaizhong, Lin Zhijie. Ancient Painting Inpainting Algorithm Based on Multi-Channel Encoder and Dual Attention[J]. Journal of Computer Research and Development, 2023, 60(12): 2814-2831. DOI: 10.7544/issn1000-1239.202220648
赵磊, 吉柏言, 邢卫, 林怀忠, 林志洁. 基于多路编码器和双重注意力的古画修复算法[J]. 计算机研究与发展, 2023, 60(12): 2814-2831. CSTR: 32373.14.issn1000-1239.202220648
引用本文: 赵磊, 吉柏言, 邢卫, 林怀忠, 林志洁. 基于多路编码器和双重注意力的古画修复算法[J]. 计算机研究与发展, 2023, 60(12): 2814-2831. CSTR: 32373.14.issn1000-1239.202220648
Zhao Lei, Ji Boyan, Xing Wei, Lin Huaizhong, Lin Zhijie. Ancient Painting Inpainting Algorithm Based on Multi-Channel Encoder and Dual Attention[J]. Journal of Computer Research and Development, 2023, 60(12): 2814-2831. CSTR: 32373.14.issn1000-1239.202220648
Citation: Zhao Lei, Ji Boyan, Xing Wei, Lin Huaizhong, Lin Zhijie. Ancient Painting Inpainting Algorithm Based on Multi-Channel Encoder and Dual Attention[J]. Journal of Computer Research and Development, 2023, 60(12): 2814-2831. CSTR: 32373.14.issn1000-1239.202220648

基于多路编码器和双重注意力的古画修复算法

基金项目: 浙江省尖兵计划项目(2022C01222);国家重点研发计划项目 (2020YFC1522704);国家自然科学基金项目(62172365);浙江省自然科学基金项目 (LY21F020005, LY19F020049);国家社科基金重大项目(19ZDA197);浙江省文物保护科技项目(2019011);石窟寺文物数字化保护国家文物局重点科研基地项目;浙江大学教育部脑与脑机融合前沿科学中心项目(2021008)
详细信息
    作者简介:

    赵磊: 1975年生. 博士,副研究员. CCF会员. 主要研究方向为图像修复、深度学习、图像智能生成

    吉柏言: 2000年生. 硕士研究生. 主要研究方向为图像跨域迁移

    邢卫: 1967年生. 博士,副教授. 主要研究方向为图像智能处理

    林怀忠: 1970年生. 博士,副教授. 主要研究方向为图像智能处理

    林志洁: 1980年生. 博士,副教授. 主要研究方向为图像智能处理

    通讯作者:

    林怀忠(linhz@zju.edu.cn

  • 中图分类号: TP391

Ancient Painting Inpainting Algorithm Based on Multi-Channel Encoder and Dual Attention

Funds: This work was supported by the Zhejiang Elite Program(2022C01222), the National Key Research and Development Program of China (2020YFC1522704), the National Natural Science Foundation of China (62172365), the Natural Science Foundation of Zhejiang Province (LY21F020005, LY19F020049), the Key Program of the National Social Science Foundation of China (19ZDA197), the Zhejiang Cultural Relics Protection Science and Technology Project (2019011), the Key Scientific Research Base for Digital Conservation of Cave Temples of State Administration for Cultural Heritage and the Project of MOE Frontier Science Center for Brain Science & Brain-Machine Integration (Zhejiang University) (2021008).
More Information
    Author Bio:

    Zhao Lei: born in 1975. PhD, associate professor. Member of CCF. His main research interests include image restoration, deep learning, and intelligent image generation

    Ji Boyan: born in 2000. Master candidate. His main research interest includes image cross domain translation. (qinglanwuji@zju.edu.cn

    Xing Wei: born in 1967. PhD, associate professor. His main research interest includes image intelligent processing

    Lin Huaizhong: born in 1970. PhD, associate professor. His main research interest includes image intelligent processing

    Lin Zhijie: born in 1980. PhD, associate professor. His main research interest includes image intelligent processing.(bytelin@qq.com

  • 摘要:

    绘画是重要的文化艺术形式,数千年以来,我国古代产生了大量的绘画作品,包含有丰富的文化、艺术、科学与历史价值,但是由于自然灾害(地震)与自然风化以及人类越来越多的经济活动等种种原因导致部分绘画作品存在或多或少的残损或者大块缺失,严重影响了基于这些绘画作品的鉴赏、文化创意、文化传播等活动. 与自然图像相比,古画图像的自相似性通常较高,有着明显的风格特点、丰富和细腻的纹理. 尽管目前在自然图像上的修复技术已经取得了令人印象深刻的进展,但是这些算法还不能直接用于中国古画的修复. 结合中国古画的特点对算法和模型结构进行设计,提出了基于多路编码器和双重注意力机制的中国古画修复算法,目标是对内容受损的古画进行自动化修复. 为了能够较好地从多个尺度来修复古画,采用了多路编码器来学习古画不同尺度的语义特征,通过学习到的宏观、中观、微观的语义特征来对古画进行修复,解决了古画丰富和细腻的纹理修复困难问题. 为了更好地学习古画的全局语义特征,使得修复后的古画整体更加和谐一致,采用了双重注意力模块分别从风格和内容2个方面来学习古画的全局语义特征. 为了验证提出的算法的先进性,制作了一个古画数据集,在该数据集上的实验证明,提出的算法相对于目前最先进的算法而言具有较好的修复质量.

    Abstract:

    Painting is an important form of culture and art. For thousands of years, a large number of paintings have been produced in ancient China. And paintings contain rich cultural, artistic, scientific, and historical values. But due to natural disasters (earthquake) and various reasons such as natural weathering and more and more human economic activities, some paintings are more or less damaged or missing in large pieces, which seriously affects the appreciation, cultural creativity, cultural communication and other activities based on these paintings. Compared with natural images, ancient painting images usually have high self-similarity, obvious style characteristics, rich cultural connotation and delicate texture. Although impressive progress has been made in the inpainting technology of natural images, these methods cannot be directly applied to the inpainting of ancient Chinese paintings. Combined with the characteristics of ancient Chinese paintings, we design the algorithm and model structure and proposes a Chinese ancient painting inpainting algorithm based on a multi-channel encoder and dual attention module. The goal is to automatically repair the damaged ancient paintings. In order to better repair the ancient paintings from multiple scales, we use a multi-channel encoder to learn the semantic features of ancient paintings at different scales and repair ancient paintings through the learned macro, meso, and micro semantic features, which solves the difficult problem of rich and delicate texture repair of ancient paintings. In order to better learn the global semantic features of ancient paintings and conduct the harmony and consistency of the repaired ancient paintings, we use the dual attention module to learn the global semantic features of ancient paintings from two aspects: style and content. In order to verify the advanced nature of the algorithm, an ancient painting data set is produced. Experiments on this dataset prove that the algorithm proposed in this paper has better repair quality than the SOTA algorithms.

  • 物联网、大数据、边缘计算等新一代人工智能技术飞速发展,为智能交通系统的实现提供技术支持. 智能交通系统(intelligent traffic system,ITS)是一种综合运用多种先进技术的交通运输管理系统,用于营造安全、高效、环保的交通环境. 智能交通信号控制是智能交通系统的核心,它提供动态更新、综合计算、实时决策等功能.

    近年来,物联网技术的研究取得突破性进展,也推动智能交通信号控制的广泛应用. 基于物联网技术实现对交通环境的全方位感知,云计算技术为海量数据提供计算服务,以数据为中心进行决策[1],具有实时精准的特性. 然而,采用云计算技术难以满足大规模场景下信号控制器低时延、高响应、实时计算的需求. 边缘计算技术将云计算能力从中心下沉到边缘节点,形成端—边—云一体化协同计算系统,实现就近实时计算,更加满足信号控制系统高实时性要求.

    与此同时,对交通信号优化控制问题的研究也从未停止,采用整数规划、群体智能方法、传统机器学习方法等传统优化方法寻求最优控制方案的研究取得一定成果. 强化学习[2](reinforcement learning,RL)在解决连续决策问题上表现优异,被提出可适用于解决交通场景问题[3],在解决大规模交通信号协同控制问题上发挥着越来越重要的作用.

    强化学习通过智能体试错的方式探索环境,并根据探索环境得到的经验自学习建立最优行为策略模型,最大化累计奖励. 当环境中智能体数量增加,每个智能体单独进行环境探索并学习. 从单个智能体的角度来看,环境出现非平稳性,方法不利于收敛. 在目前的研究中对多智能体协同方式大部分采用的同步决策机制,即统一时钟频率,以固定的决策周期进行决策.

    在实际场景中,由于交叉口地理位置、交通管制要求以及功能的不同,车流通过交叉口的时间往往具有很大差异. 同步决策方式导致交通信号绿灯利用率较低,交叉口通行服务质量下降. 如图1所示,在时刻t交叉口i进行动作决策并切换交通灯相位. 在tt时,交叉口i可通行车道(东西方向车道)已无等待车辆,但仍然持有通行权(绿灯空放现象). 由于未到约定好的动作决策周期,导致其他车道无法竞争通行权, 从而造成一部分绿灯时间损失,交通信号利用率降低.

    图  1  交通信号控制场景图
    Figure  1.  Traffic signal control scene diagram

    在本研究中设计一种基于端—边—云协同的交通信号控制架构,并将异步通信与交通信号自适应控制相结合,提出一种多智能体之间可以使用不同决策周期的异步决策机制,降低绿灯损失时间,提高交叉口时间利用率.

    本文的主要贡献包括3个方面:

    1)针对集中控制系统高、时延低效率这一问题,提出一种基于端—边—云的交通信号分布式控制架构. 实现在边缘节点进行数据预处理,在端节点决策的方式减少传输时延.

    2)针对同步决策导致交叉口时间利用率低问题,设计一种基于异步决策的交通信号优化机制. 智能体根据交叉口车辆等待时间更新决策周期的方法,增加单个交叉口有效绿灯时间,避免交叉口绿灯空放现象.

    3)针对强化学习智能体之间实时通信受限问题,提出一种基于邻居信息库的多智能体协作交通信号自适应协调方法. 降低因异步方式产生的智能体之间信息不平衡情况,从而提升多参与者协同效率.

    边缘计算为智慧交通的建设提出高效的分布式计算解决方案,该方案构建计算、存储、决策一体化的边缘开放平台,为交通信号控制系统提供一种新型计算模式[4]. 在大规模路网的交通信号控制研究中,文献[5]提出一种为每个交叉口控制智能体分配对应边缘学习平台,在协作时仅考虑直接相连的邻居信息的方法. 这种分散协作式具有较高的成本效益,难以适用于大规模路网.

    实际交通信号控制应用场景存在环境建模难的问题,基于数据驱动的无模型强化学习方法可以在探索中自身学习,实现控制闭环反馈. 独立学习的单智能体之间不进行相互之间的沟通与协作,每个智能体只能感知自己控制范围内的状态,每次以优化局部Q值最大化为目标. 但当周围环境变得复杂时,不考虑上下游智能体的决策带来的非平稳性的影响将会导致自身学习无法收敛. 基于通信的多智能体联合学习通常采用集中式控制[6],以最大化所有区域智能体的联合动作对应的Q值为目标. 全局智能体所需要处理数据庞大,现有计算能力难以实时处理,集中式控制方式的弊端逐渐暴露出来,因此有学者提出分散式多智能体控制方式. 当掌握全局的统领者被撤走后,使用协作图[78]简化多个智能体之间关系或采用博弈论[911]解决智能体之间的联合问题是较为常用的办法. 文献[12]中提出一种完全可扩展的去中心化多智能体强化学习(muti-agent reinforcement learning,MARL)方法,将其他智能体的策略以广播的方式告知环境中的其他代理,并应用空间折现因子缩小距离较远的智能体带来的影响. 除此之外,其他MARL方法应用到多路口场景,如MADDPG[13],APE-X DQN[14],AC[15],A2C[16]等,也被证明是可行的. 将多智能体协作问题转换成图也被广泛研究,如MARL与GAN[17]、图卷积[1820]等图方法结合.

    交通信号控制系统中关于异步的研究集中在降低数据相关性方面. 文献[21]基于并行强化学习范式采用异步梯度下降优化神经网络参数,提高资源利用率,提升训练速度. 文献[22]提出一种异步协同信号框架,信号控制器根据并行方式异步共享的相邻信息进行决策,该框架能够提高实际控制的稳定性,但要求所有控制器必须同步进行决策. 文献[23]提出一种异步多步Q-Learning方法,该方法采样多个步骤后进行估值,降低因估计造成的误差,并利用多核CPU并行模拟多个代理与环境进行交互的过程,异步更新全局参数.

    在关于多智能体协同的研究中可以发现,在同一环境下的智能体直接进行通信需要同步决策才能实现同步通信. 本研究采用间接通信方式,借助边缘节点存储的邻居信息库间接实现智能体之间通信,智能体之间不必要求同步决策. 异步决策方式能够达到提高智能体之间的通信效率、优化交通信号配时方案、降低车辆在交叉口的等待时间.

    本文研究以常见十字交叉口场景为例,每个交叉口内安装多种信息采集装置,由m个十字交叉口构成的路网中分布着n个边缘服务器以及1个中心云服务器,并提出交通信号分层协同控制[24].

    图2所示,在单个十字交叉口中布设多种智能终端传感设备,如网联车、交通信号控制器、摄像头和传感器等. 这些终端设备用于感知环境信息,并向边缘服务器节点传输环境数据.

    图  2  基于端—边—云架构的交通信号控制架构图
    Figure  2.  Architecture diagram of traffic signal control based on end-edge-cloud

    根据具体交通需求将m个交叉口划分为n个区域,缩小交通信号控制器控制范围. 每个区域由对应的边缘服务器进行管理,负责初步处理多源异构的感知数据、小规模的智能分析,以及提供存储与决策相关的服务. 此外,边缘节点还需要维护一个小型邻居信息库(参见3.2.1节),用于降低决策时的通信延迟,提升智能体之间的合作效率.

    在中心云服务层,云节点核心控制程序从全局角度实现资源调度和决策,同时存储和维护路网整体的邻居信息库,进行深入分析,接收边缘节点定时传输的数据并更新.

    在基于提出的端—边—云协同交通信号控制架构上,面向多交叉口交通信号控制场景,构建强化学习控制模型,提出一基于边缘计算的异步决策的多智能体交通信号自适应协调方法(adaptive coordination method,ADM),该方法包括交通信号配时优化机制和基于异步决策的多智能体交通信号自适应协调算法. 在3.1节中重点描述决策周期计算方法. 由于系统中多个智能体采取不同决策周期,相互之间的通信方式是需要研究的重点,因此,在3.2节中提出基于邻居信息库的多智能体协作机制,并给出智能体的定义以及学习过程.

    根据车辆跟驰方式,车流可划分为饱和连续车流(包含首车及后续连续车流)和非饱和车流. 受到信号灯的控制,当首车状态发生改变后,在停车线前排队等候的车辆传递性发生连续状态改变,形成交通流,并以一定的传播速度向后传播. 能够与前车一起形成连续不间断的车流为饱和连续车流,包含绿灯亮起时已排队车辆以及放行时到达车辆,后加入到队列中的车辆作为队尾进行研究. 后续到达车辆无法与前车构成连续车流时称为非饱和车流,此时车头时距较大,由车辆到达率决定. 因不受前车速度制约,非饱和车流以自由流速度行驶通过交叉口. 通常情况下,在最长绿灯时间允许范围内,最后一辆车驶离停车线后切换信号相位. 然而,实际情况中因非饱和车流通行的不确定性导致通行时间被浪费. 为了贴合实际场景中动态的交通流,提供更好的优化交通信号配时方案, ADM方法基于车辆跟驰理论针对不同交叉口状态实时调整绿信比.

    交通模式划分为相对模式(C1)、相邻模式(C2)和汇聚模式(C3),每个模式中含有4个相位,每个相位默认绿灯时间为tg,默认黄灯时间为ty,信号默认周期ta是默认绿灯和黄灯时间之和,如式(1)所示:

    ta=tg+ty. (1)

    根据不同阶段的车头时距,将实际信号周期ta的计算分为4个部分.

    1)首车启动及饱和跟驰阶段t1,如式(2)所示:

    t1={0,carN=0,ta3,carN0waitN= 0,dv,carN0waitN0, (2)

    其中carN表示具有通行权车道上的车辆数,waitN表示车道上实际停车数,当车速小于0.1 m/s时视为车辆处于等待状态,d是饱和连续车流末尾车辆所在位置到停车线的距离,v是饱和连续车流正常通行情况下的平均速度估计值.

    2)非饱和跟驰阶段t2,如式(3)所示:

    t2={0,runN=0,duvu,runN0, (3)

    其中runN表示具有通行权车道上正在行驶的车辆,du为非饱和车流末尾车辆所在位置到停车线的距离,vu为非饱和车流继续通行时平均行驶速度.

    3)当饱和跟驰阶段执行完毕后,再次观察交通环境并计算除当前车道外其他车道的饱和连续通行时间t3,并判断当前交叉口竞争状态.

    ①如果t3<t2,交叉口处于弱竞争状态,不需要切换动作;

    ②如果t3t2,交叉口处于强竞争状态,需要根据邻居信息切换新动作. 根据3.2.3节描述的协调机制,重新选择新动作并执行.

    4)黄灯实际执行时间ty,如式(4)所示:

    ty=max (4)

    修正后的实际相位周期时间 {t}_{{\rm{a}}}{{'}} 为这4部分之和,对应智能体的实际动作执行时间之间与默认动作执行时间存在一定差异,整个系统中智能体难以实现同步决策. 因此,ADM方法引入异步概念,允许智能体根据交通环境情况适当调整自身绿信比. 当前相位执行完毕后无需等待与其他智能体时钟频率同步的时刻,可以直接决策并执行新动作.

    考虑到异步决策机制会降低多智能体之间的通信效率这一问题,ADM算法提出在云节点维护整体路网的邻居信息库,边缘节点维护与其目标节点相关的邻居信息库,并按一定周期将数据同步更新给云节点.

    智能体在决策时仅参考与目标交叉口相邻接的交叉口状态信息,并将自身新决策发送给对应边缘节点更新. 邻居信息库中存储交叉口之间邻接信息、每个交叉口的决策时间、决策结果以及持续时间. 当交叉口控制智能体i决策时,向其对应的边缘服务器发送数据请求. 边缘服务器根据交叉口间邻接关系,将其邻接交叉口集合Ji的最新决策信息返回给智能体i,智能体i与邻居协调决策(协调策略详细描述见3.2.3节)后将自己最新决策再次发送给边缘服务器,用于更新存储在边缘节点的局部信息库. 一段时间后,边缘服务器集群集中向云服务器进行同步信息,用于云服务器训练模型,云服务器训练模型后将最新模型参数发送给边缘服务器更新.

    根据强化学习理论,可以将控制过程建模为马尔可夫决策过程(MDP),使用五元组表示(O, A, R, α, γ). 其中O表示状态空间向量,A表示动作空间向量,R表示奖励函数Roa):O×ARα为智能体的学习率,γ为折扣因子. 控制过程的根本原理是通过试错的方式探索环境,即在智能体执行动作后,环境根据执行该动作产生的效果给予奖励,如果获得较好奖励,表明在当前状态执行该动作较为合适,可以增加该动作的出现概率. 智能体根据探索环境得到的经验进行自身学习,主要学习任务是行为策略,目标是在环境中最大化累计奖励. 要素的具体定义有3方面:

    1)状态空间

    根据3.1节中划分的3组交通模式,智能体观测空间也由3组不同交通模式共计12种车流的状态向量构成,O =S1S2,…,Si)(1≤i≤12). 其中Si表示第i种车流的状态,由最长连续等待车流f和与f间隔最小的预计到达车流 {f}^{{'}} 的估计停车等待时间Tw表示,如式(5)所示.

    {T_{\rm{w}}} = wait{N'} \times {t_{\rm{w}}} , (5)
    wait{N'} = waitN + runN \times e \text{,} (6)

    其中 {waitN}' 是车道上估计停车数,waitN是车道上实际停车数, {t}_{{\rm{w}}} 是车道上单位车辆等待时间,e是车道上车辆行驶状态不均衡系数,e计算公式如式(7)所示.

    e = {I'}/({I'} + I) \text{,} (7)

    其中 {I}' 是车流在理想行驶与实际行驶状态下该统计分布面积之差,I是车流实际状态下该统计分布面积,车流内部以可协调的最大速度同速行驶.

    2)动作空间

    本文中动作定义采取在预定义的相位方案中选择需要更改的相位方法. 动作空间A = (C1C2C3),根据交通模式划分为3组C1={NSs,EWs,NSl,EWl},C2={Wsl,Ssl,Esl,Nsl},C3={WsNl,SsWl,EsSl,NsEl},共计12种动作构成. N,S,W,E分别表示北向、南向、西向、东向,下标s和l表示直行和左转. 出于安全性考虑,每个动作执行后均默认执行一个对应的黄灯过渡相位. 由于右转车流不受交通信号控制,因此在相位方案中省去对于右转车辆的指示,默认一直是绿灯状态.

    3)奖励函数

    累计奖励函数最大是强化学习算法优化学习的目标,其设置需要能够准确反馈动作执行带来的影响. 本文中奖励函数R的定义如式(8)所示:

    R({\boldsymbol{o}},{\boldsymbol{a}}) = {H_{\rm{w}}} \times (1 - \bar e) \text{,} (8)

    其中 \bar e 是路口整体车流状态不均衡系数,取路口直行和左转车道上行驶车辆状态不均衡系数e的平均值. Hw是执行动作a后路口拥堵状态持续加剧程度的估计值,反映执行绿灯相位对路口拥堵状态变化的影响,计算公式如式(9)所示:

    {H_{\rm{w}}} = waitN/wait{N'} . (9)

    多个智能体在环境中需要相互协调以获得最大累计奖励值,智能体在充分考虑与目标节点邻接的节点的交通状态下,根据道路实际通行情况和交通信号控制器选择结果进行决策投票. 在强竞争场景下实现控制车流传输速度,尽量降低上游路口对下游路口的负面影响.

    具体而言,智能体根据观察到的目标交叉口环境状态信息,以ε-greedy策略选取基于动作选择策略选取动作a1;从邻居经验库中获取目标交叉口邻接交叉口的信息,计算得到根据协同后建议采取动作a2;当a1a2时,表示与邻居协同失败,重新选择动作. 根据交叉口估计等待时间最长车道需要先疏通这一原则对车道设置优先级,从动作a1所属交通模式的相位集合中选择具有最高优先级的车道赋予通行权,即动作a3. 从动作候选集合{a1a2a3}中选择最终动作后得到对应默认执行周期ta,根据3.1节计算智能体实际执行周期t_a' . 每次决策后都要将决策结果发给附近边缘节点,智能体通过自适应以及与邻居之间经验不断优化学习,提高协调控制的效果,具体如算法1所示.

    算法1. 基于多智能体异步协作的信号优化算法.

    输入:学习率α,折扣因子γ,搜索概率ε,最大仿真步数T,交叉口集合J,邻居经验库B

    输出:最优执行动作序列A*.

    ① 初始化 otgetObservation(),t←0;/*初始化状   态和时间*/

    ② for t=1,2, … ,T do

    ③  for j=1,2, … ,J do

    ④   if at, j,1at, j,2

    ⑤    at, j = at, j,1

    ⑥   else at,j = at,j,3; /*智能体根据邻居信息

    采用投票策略独立进行决策*/

    ⑦   end if

    ⑧   t1t2t3calDescisionTime();

    ⑨   if t2t3 /*判断交叉口状态*/

    ⑩    break;

    ⑪   end if

    ⑫   rt = executeat,jt1t2t3);

    ⑬   {Q}_{j}({\boldsymbol{o}}_{t,j}^{*},{\boldsymbol{a}}_{t,j}^{\mathit{*}})=(1-\alpha )\times {Q}_{j}({\boldsymbol{o}}_{t,j},{\boldsymbol{a}}_{t,j})+

    \alpha [\gamma \times {Q}_{j}({\boldsymbol{o}}_{t+1,j},{\boldsymbol{a}}^{{*}})+R({\boldsymbol{o}}_{t,j},{\boldsymbol{a}}_{t,j})];      /*更新Q-table*/

    ⑭   ot+1,jgetObservation();

    ⑮  end for

    ⑯ end for

    ⑰ return {a1,0*a1,1*,…,a1,J*,…,aT,0*aT,1*,…,aT,J*}.

    为了评估所提出的ADM方法,在阿里云服务器上实现云服务核心控制程序、构建全局邻居信息库及相关操作API. 基于RSU设备实现数据预处理、控制决策、区域邻居信息库创建及更新的程序. 在交通仿真软件SUMO中对多交叉口仿真环境进行建模,在SUMO中搭建的路网如图3所示.

    图  3  仿真交叉口模型示意图
    Figure  3.  Schematic diagram of the simulated intersection model

    ADM方法基于Q学习方法,经过多次实验调整后对方法和道路相关参数设置如表1所示.

    表  1  主要参数列表
    Table  1.  Major Parameter List
    参数取值
    学习率α0.1
    折扣因子γ0.9
    搜索概率ε0.1
    最大训练轮次100
    最大仿真步数7200
    信息库更新周期/s1
    道路长度/m300
    车道最大车速/(km·h−140
    最大加速度/(m·s−22
    最大减速度/(m·s−24.5
    最小车间距/m2
    默认直行绿灯时间/s33
    默认左转绿灯时间/s25
    默认黄灯时间/s3
    下载: 导出CSV 
    | 显示表格

    实验中仿真车流数据使用济南市某交叉口实际数据,数据来自于交叉口附近布设的监控摄像,每个交叉口具有相对完整的记录. 数据集中信息包括地理位置信息、车辆到达时间及其他信息,以及对信息处理后生成与仿真环境匹配的路由文件. 加载路网和车辆路由文件后,使用Python语言编程实现ADM方法,借助Traci接口与仿真环境进行交互获取数据.

    ADM方法将与2种方法进行对比.

    1)传统固定配时法(fixed time, FT). 按照默认相位方案和信号周期顺序执行. 默认相位方案为{NSs,EWs,NSl,EWl,Wsl,Ssl,Esl,Nsl,WsNl,SsWl,EsSl,NsEl},默认直行绿灯时长为33 s,左转绿灯时长为25 s,黄灯时长为3 s.

    2)基于Q学习的独立交通信号自适应控制方法IQA(independent Q-learning decision algorithm). 智能体之间无协同,根据自身信息进行动作选择,并采用同步决策方式.

    评价指标包括:路口平均等待车辆数、路口车辆等待时间、路口最大排队长度.

    1)控制有效性分析. 在4800 s的仿真实验中,路网中车流量总数约为3000辆,实验中2个交叉口车流量经过优化控制后时变如图4图5所示,可以看出2个交叉口车流量均呈先增后减的趋势. 受路网通行能力的限制,单位时间内可通行车辆数恒定、流量波动大时,代表交叉口通行效率不稳定. 当流量小时,表示交通畅通或出现绿灯空放现象;当流量大时,表示交通缓慢或已经拥堵.

    图  4  路口1车流量变化
    Figure  4.  Traffic flow variation of intersection 1
    图  5  路口2车流量变化
    Figure  5.  Traffic flow variation of intersection 2

    结合图4图5可以发现,在FT方法中,相位执行顺序和时长恒定不变,在整个仿真过程中车流量波动较小,对车流具有一定的疏通作用. 而不具有协调机制的IQA方法独立决策,无需考虑相邻交叉口情况. 当路网中流量增大时,因交叉口1和交叉口2无相互协调造成车流量大幅度波动. 最高峰时交叉口1中有近130辆车在行驶或等待,高于同时刻其他2种方法近1倍. 同时,在交叉口2车流明显低于其他2种方法,这表明相邻交叉口之间的协调控制能够有效减少独立控制方式的盲目判断,从而预防大量车辆拥堵现象的产生,最大限度地减少车辆停车次数对于提高路网通行有明显的作用. 本文研究中提出的ADM方法和FT方法的波动大致相同,但ADM整体上低于FT方法对应的曲线. 这表明采用动态信号决策周期能够有效提升信控优化效率. 对于突然大量增加的车流量,也能及时疏导避免在交叉口造成拥堵,展示出具有自适应学习能力和实时决策能力.

    2)平均等待长度和平均等待车辆数对比分析. 在仿真过程中对2个交叉口平均等待长度进行记录,并计算出不同方法的平均值,如表2所示. 固定配时平均等待长度和平均等待车辆数这2项指标均较高,这表示车辆在交叉口聚集时间过长,产生拥堵现象,但方法由于不具有自适应性无法调节. 无协同的IQA方法优化效果不明显,经过分析得到,当发生拥堵时IQA能够根据环境变化对相位进行灵活调整,因此控制效果比固定配时方法好. 图6展示在仿真过程中不同方法控制下平均等待车辆数的变化,从图6中可以看出,ADM方法在运行整体调节效果较好,从长远角度考虑决策,尽量避免拥堵情况的发生,降低平均等待车辆数. 图7为在仿真过程中不同等待车辆数出现的频次,可以发现,在ADM方法的调控下,平均等待40辆车甚至更多事件发生的频率明显少于其他2种方法,这表明ADM方法能够有效避免拥堵情况的发生.

    表  2  交叉口平均等待车辆数
    Table  2.  Average Waiting Car Numbers at Intersections
    方法交叉口1车辆数交叉口2车辆数
    ADM(本文)5.794.23
    IQA6.175.68
    FT8.818.63
    下载: 导出CSV 
    | 显示表格
    图  6  交叉口平均等待车辆数
    Figure  6.  Average waiting car numbers at intersection
    图  7  交叉口平均等待车辆数分布
    Figure  7.  Distribution of average waiting car numbers at intersection

    3)累计等待时间对比分析. 如图8所示,ADM方法相较于其他方法对路口整体的车辆等待通行时间的控制效果更好,可以较稳定地将路口车辆的等待时间控制在较小范围内波动,并且ADM方法的累计等待时间更短并且收敛速度相比其他2种方法更快.

    图  8  交叉口累计等待时间
    Figure  8.  Cumulative waiting time at intersection

    本文提出一种异步决策的多智能体交通信号自适应协调方法,该方法基于边缘计算技术实现,适用于大规模路网分布式控制场景. 基于本文提出的端—边—云架构,实现使用多种物联网终端设备采集环境信息,边缘进行小规模计算及决策,并在云上部署存储设备,进行全局计算和管理. 此外,针对同步决策中绿灯有效时间短问题,本文将异步引入多智能体协调决策中,并提出采用邻居信息库解决多智能体通信效率低的问题,在实验中验证本文提出方法的有效性.

    未来拟进行的研究工作包括:考虑在不同拓扑结构的路网中使用智能体协同决策机制[14],以及基于分布式多层端—边—云架构的智能交通控制系统的设计,进一步研究部分网联车环境下实时交通信号优化控制方法,以及进行流量预测和行驶路线规划.

    作者贡献声明:高涵设计实验方案和验证实验,并撰写论文;罗娟提出研究思路,对论文模型方法提出指导意见;蔡乾雅负责完成对比实验;郑燕柳对论文进行修改和完善.

  • 图  1   基于多路编码器和双重注意力模块的中国古画修复算法的网络结构图

    Figure  1.   Network structure diagram of Chinese ancient painting restoration algorithm based on multi-channel encoder and dual attention module

    图  2   修复过程中使用不同感受野观察图像

    Figure  2.   Observating image using different receptive fields in the inpainting process

    图  3   空间-风格注意力模块的结构图

    Figure  3.   Structure diagram of space-style attention module

    图  4   古画切片示意图

    Figure  4.   Schematic diagram of ancient painting slices

    图  5   本文算法在测试集I上的实验结果

    Figure  5.   Experimental results of our algorithm on test set I

    图  6   本文算法在测试集II上的实验结果

    Figure  6.   Experimental results of our algorithm on test set II

    图  7   本文算法对大面积内容缺失的古画图像的修复结果

    Figure  7.   Restoration results of our algorithm for ancient painting images with large area of missing content

    图  8   不同算法在测试集I上的实验结果对比

    Figure  8.   Comparison of experimental results of different algorithms on test set I

    图  9   不同算法在测试集II上的实验结果对比

    Figure  9.   Comparison of experimental results of different algorithms on test set II

    图  10   不同的注意力模块组成方式在测试集I上的修复效果对比

    Figure  10.   Comparison of repair effects of different attention module composition methods on test set I

    表  1   多路编码器网络结构

    Table  1   Network Structure of Multi-Channel Encoder

    分支编号层编号层类型卷积核尺寸膨胀系数步长输出尺寸输出通道数感受野尺寸
    11卷积层3×311256×256643×3
    2卷积层3×311256×256645×5
    3卷积层3×311256×256647×7
    4卷积层3×311256×256649×9
    5卷积层3×311256×2566411×11
    6卷积层3×312128×12812813×13
    21卷积层3×311256×256643×3
    2膨胀卷积层3×321256×256647×7
    3膨胀卷积层3×341256×2566415×15
    4膨胀卷积层3×381256×2566431×31
    5膨胀卷积层3×3161256×2566463×63
    6卷积层3×312128×12812865×65
    31卷积层3×311256×256643×3
    2膨胀卷积层3×321256×256647×7
    3膨胀卷积层3×341256×2566415×15
    4膨胀卷积层3×381256×2566431×31
    5膨胀卷积层3×3161256×2566463×63
    6膨胀卷积层3×3322128×128128127×127
    7卷积层3×311128×128128
    下载: 导出CSV

    表  2   解码器网络结构

    Table  2   Decoder Network Structure

    层编号层类型卷积核尺寸步长输入尺寸输出尺寸输入通道数输出通道数
    1反卷积层3×32128×128256×25612864
    2卷积层3×31256×256256×256643
    下载: 导出CSV

    表  3   判别器网络结构

    Table  3   Discriminator Network Structure

    层编号层类型卷积核尺寸步长输入尺寸输出尺寸输入通道数输出通道数
    1卷积层3×32256×256128×128364
    2卷积层3×32128×12864×6464128
    3卷积层3×3264×5332×32128256
    4卷积层3×3232×3216×16256512
    5全连接层16×1615121
    下载: 导出CSV

    表  4   训练集与测试集I中的数据分布

    Table  4   Data Distribution in Training Set and Test Set I

    编号画家作品数训练集切片数测试集I切片数
    1陈淳7684171
    2陈洪绶17904226
    3仇英221449362
    4董其昌17892223
    5蓝瑛191024265
    6吕纪9964241
    7沈周301166291
    8唐寅321372343
    9文徵明251576394
    总计178100312516
    下载: 导出CSV

    表  5   测试集II中的数据分布

    Table  5   Data Distribution in Test Set II

    序号画家作品数测试集II切片数
    1戴进11645
    2陆治8989
    总计191634
    下载: 导出CSV

    表  6   不同算法在测试集I上的评价指标对比

    Table  6   Comparison of Evaluation Indicators of Different Algorithms on Test Set I

    量化指标本文算法GL算法CA算法PC算法
    PSNR26.76224.42726.00823.589
    SSIM0.8030.7330.7800.743
    注: 加粗数字表示最优值.
    下载: 导出CSV

    表  7   不同算法在测试集II上的评价指标对比

    Table  7   Comparison of Evaluation Indicators of Different Algorithms on Test Set II

    量化指标本文算法GL算法CA算法PC算法GC算法MED算法EC算法CPST算法
    PSNR25.70722.64424.44321.30725.24324.99325.60325.443
    SSIM0.7470.6690.7240.6630.7360.7280.7320.714
    注: 加粗数字表示最优值.
    下载: 导出CSV

    表  8   不同的注意力模块组成方式在测试集I上的评价指标对比

    Table  8   Comparison of Evaluation Indicators of Different Attention Module Composition Methods on Test Set I

    量化指标不使用注
    意力模块
    仅使用空间
    注意力模块
    仅使用风格
    注意力模块
    使用空间-风格
    注意力模块
    PSNR24.46925.86725.60226.762
    SSIM0.7240.7750.7400.803
    注: 加粗数字表示最优值.
    下载: 导出CSV

    表  9   不同的网络架构在测试集I上的评价指标对比

    Table  9   Comparison of Evaluation Indicators of Different Network Architectures on Test Set I

    量化指标仅使用
    第1个分支
    仅使用
    第2个分支
    仅使用
    第3个分支
    使用全
    部的分支
    PSNR25.26925.36725.50226.762
    SSIM0.6740.6950.7200.803
    注: 加粗数字表示最优值.
    下载: 导出CSV
  • [1]

    Nguyen A, Dosovitskiy A, Yosinski J, et al. Synthesizing the preferred inputs for neurons in neural networks via deep generator networks [C] // Proc of the 30th Advances in Neural Information Processing Systems (NIPS). La Jolla, CA: NIPS, 2017: 11−19

    [2]

    Fukushima K. Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position[J]. Biological Cybernetics, 1980, 36(1): 189−196

    [3]

    LeCun Y, Boser B, Denker J, et al. Backpropagation applied to handwritten zip code recognition[J]. Neural Computation, 1989, 1(1): 146−156

    [4]

    Pathak D, Krahenbuhl P, Donahue J, et al. Context encoders: Feature learning by inpainting [C] //Proc of the 31st IEEE Conf on Computer Vision and Pattern Recognition. Los Alamitos, CA: IEEE Computer Society, 2016: 1033−1038

    [5]

    Goodfellow I, Pouget-Abadie J, Mirza M, et al. Generative adversarial networks [C] //Proc of the 29th IEEE Conf on Computer Vision and Pattern Recognition (CVPR). Los Alamitos, CA: IEEE Computer Society, 2014: 2672−2680

    [6]

    Efros A, Leung T. Texture synthesis by non-parametric sampling [C] //Proc of the 7th IEEE Int Conf on Computer Vision (ICCV). Piscataway, NJ: IEEE, 1999: 1033–1038

    [7]

    Bertalmio M, Sapiro G, Caselleset V et al. Image inpainting [C] //Proc of the 8th ACM Int Conf on Multimedia (ACM MM). New York: ACM, 2000: 417−424

    [8]

    Telea A. An image inpainting technique based on the fast marching method[J]. Journals of Graphics Tools, 2004, 9(1): 25−36

    [9]

    Chan T, Shen Jiahong. Non texture inpainting by curvature-driven diffusion[J]. Journal of Visual Communication and Image Representation, 2001, 12(4): 436−449 doi: 10.1006/jvci.2001.0487

    [10]

    Chan T, Kang S, Shen Jiahong. Euler’s Elastica and curvature-based inpainting[J]. SIAM Journal on Applied Mathematics, 2003, 63(2): 564−592 doi: 10.1137/S0036139901390088

    [11]

    Tsai A, Yezzi A, Willsky A. Curve evolution implementation of the Mumford-Shah functional for image segmentation, denoising, interpolation, and magnification[J]. IEEE Transactions Image Processing, 2001, 10(8): 1169−1186 doi: 10.1109/83.935033

    [12]

    Shen Jiahong, Kang S, Chan T. Euler's Elastica and curvature based inpainting[J]. SIAM Journal on Applied Mathematics, 2002, 63(2): 564−592

    [13]

    Esedoglu S, Shen Jiahong. Digital inpainting based on the Mumford–Shah–Euler image model[J]. European Journal of Applied Mathematics, 2002, 13(4): 353−370

    [14]

    Efros A, Leung T. Texture synthesis by nonparametric sampling [C] //Proc of the 7th IEEE Int Conf on Computer Vision (ICCV). Piscataway, NJ: IEEE, 1999: 1033–1038

    [15]

    Efros A, Freeman T. Image quilting for texture synthesis and transfer [C] //Proc of the 8th Int Conf of ACM SIGGRAPH. New York: ACM, 2001: 341–346

    [16]

    Bertalmio M, Vese L, Sapiro G. Simultaneous structure and texture image inpainting[J]. IEEE Transactions on Image Processing, 2003, 12(8): 882−889 doi: 10.1109/TIP.2003.815261

    [17]

    Bertalmio M, Vese L, Sapiro G et a1. Image filling in a decomposition space [C] //Proc of the 10th Int Conf on Image Proceeding. Los Alamitos, CA: IEEE Computer Society, 2003: 852−855

    [18]

    Drori I, Cohen D, Yeshurun H. Fragment-based image completion[J]. ACM Transaction on Graphics, 2003, 22(3): 303−312 doi: 10.1145/882262.882267

    [19]

    Criminisi A, Perez P, Toyama K. Region filling and object removal by exemplar-based image inpainting[J]. IEEE Transacions on Image Processing, 2004, 13(9): 1200−1212 doi: 10.1109/TIP.2004.833105

    [20]

    Barnes C, Shechtman E, Goldman D. PatchMatch: A randomized correspondence algorithm for structural image editing[J]. ACM Transaction on Graphics, 2009, 28(3): 2401−24011

    [21]

    Zeng Y, Yi G, Jin Z. Feature learning and patch matching for diverse image inpainting[J]. Pattern Recognition, 2021, 119(2021): 108036 doi: 10.1109/TIP.2007.911828

    [22]

    Stark J, Elad M, Donoho D. Image decomposition via the combination of sparse representations and variational approach[J]. IEEE Transactions Image Processing, 2005, 14(10): 1570−1582 doi: 10.1109/TIP.2005.852206

    [23]

    Elad M, Stark J, Querre P, et al. Simultaneous cartoon and texture image inpaintingusing morphological component analysis[J]. Applied & Computational Harmonic Analysis, 2005, 19(3): 340−358

    [24]

    Mairal J, Elad M, Sapiro G. Sparse representation for color image restoration[J]. IEEE Transactions on Image Processing, 2008, 17(1): 53−69 doi: 10.1109/TIP.2007.911828

    [25]

    Mairal J, Bach F, Ponce J, et al. Online learning for matrix factorization and sparse coding[J]. Journal of Machine Learning Research, 2010, 11(1): 19−60

    [26]

    Shen Bin, Hu Wei, Zhang Yimin, et al. Image inpainting via sparse representation [C] //Proc of the 7th IEEE Int Conf on Acoustics, Speech and Signal Processing (ICASSP). Piscataway, NJ: IEEE, 2009: 697−700

    [27]

    Li Xin. Image recovery via hybrid sparse representations: A deterministic annealing approach[J]. IEEE Journal of Selected Topics Signal Processing, 2011, 5(5): 953−962 doi: 10.1109/JSTSP.2011.2138676

    [28]

    Gabriel P. Sparse modeling of textures[J]. Journal of Mathematical Imaging & Vision, 2009, 34(1): 17−31

    [29]

    Zhang Jian, Zhao Debin, Xiong Ruiqin, et al. Image restoration using joint statistical modeling in space-transform domain[J]. IEEE Transactions on Circuits System and Video Technology, 2014, 24(6): 915−928 doi: 10.1109/TCSVT.2014.2302380

    [30]

    Zhang Jian, Zhao Debin, Gao Wen. Group-based sparse representation for image restoration[J]. IEEE Transactions on Image Processing, 2014, 23(8): 3336−3351 doi: 10.1109/TIP.2014.2323127

    [31]

    Zhang Lin, Kang Bin, Liu Bin, et al. A new inpainting method for object removal based on patch local feature and sparse representation[J]. International Journal of Innovative Computing Information and Control, 2016, 12(1): 113−124

    [32]

    Goodfellow I, Pouget J, Mirza M, et al. Generative adversarial nets [C] //Proc of the 27th Advances in Neural Information Processing Systems (NIPS). La Jolla, CA: NIPS, 2014: 2672–2680

    [33]

    Yang Chao, Lu Xin, Lin Zhe, et al. High-resolution image inpainting using multi-scale neural patch synthesis [C] //Proc of the 11th IEEE Int Conf on Computer Vision (ICCV). Piscataway, NJ: IEEE, 2017: 1033–1038

    [34]

    Zeng Yanhong, Fu, Jialong, Chao Hongyang, et al. Learning pyramid context encoder network for high-quality image inpainting [C] // Proc of the 32nd IEEE Conf on Computer Vision and Pattern Recognition (CVPR). Los Alamitos, CA: IEEE Computer Society, 2019: 1486–1494

    [35]

    Ren Yurui, Yu Xiaoming, Zhang Ruonan, et al. Structureflow: Image inpainting via structure-aware appearance flow [C] //Proc of the 13th IEEE Int Conf on Computer Vision (ICCV). Piscataway, NJ: IEEE, 2019 : 181–190

    [36]

    Xiong Wei, Yu Jiahui, Lin Zhe, et al. Foreground-aware image inpainting[C] //Proc of the 32nd IEEE Conf on Computer Vision and Pattern Recognition (CVPR). Los Alamitos, CA: IEEE Computer Society, 2019: 5840–5848

    [37]

    Zheng Chuanxia, Cham T, Cai Jiafei. Pluralistic image completion[C] // Proc of the 32nd IEEE Conf on Computer Vision and Pattern Recognition (CVPR). Los Alamitos, CA: IEEE Computer Society, 2019: 1438–1447

    [38]

    Zhao Lei, Mo Qihang, Lin Sihuan, et al. UCTGAN: Diverse image inpainting based on unsupervised cross-space translation[C] //Proc of the 33rd IEEE Conf on Computer Vision and Pattern Recognition (CVPR). Los Alamitos, CA: IEEE Computer Society, 2020: 5741–5750

    [39]

    Liao Liang, Xiao Jing, Wang Zheng, et al. Image inpainting guided by coherence priors of semantics and textures [C] //Proc of the 34th IEEE Conf on Computer Vision and Pattern Recognition (CVPR). Los Alamitos, CA: IEEE Computer Society, 2021: 6539−6548

    [40]

    Liu Hongyu, Jiang Bin, Song Yibing, et al. Rethinking image inpainting via a mutual encoder decoder with feature equalizations [C] //Proc of the 18th European Conf on Computer Vision (ECCV). Berlin: Springer, 2020: 725−741

    [41]

    Nazeri K, Ng E, Joseph T, et al. EdgeConnect: Generative image inpainting with adversarial edge learning [C] //Proc of the 11th IEEE Int Conf on Computer Vision (ICCV). Piscataway, NJ: IEEE, 2019: 472−480

    [42]

    Yu Jiahui, Lin Zhe, Yang Jimei, et al. Free-form image inpainting with gated convolution [C] //Proc of the 11th IEEE Int Conf on Computer Vision (ICCV). Piscataway, NJ: IEEE, 2019: 4471−4480

    [43]

    Yu Fang, Koltun V, Funkhouser T. Dilated residual networks[C] //Proc of the 31st IEEE Conf on Computer Vision and Pattern Recognition (CVPR). Los Alamitos, CA: IEEE Computer Society, 2017: 472−480

    [44]

    Clevert D, Unterthiner T, Hochreiter S. Fast and accurate deep network learning by exponential linear units (Elus)[J]. arXiv preprint, arXiv: 1511.07289, 2015

    [45]

    Zhang Han, Goodfellow I, Metaxas D, et al. Self-attention generative adversarial networks [C] //Proc of the 36th Int Conf on Machine Learning (ICML). New York: ACM, 2019: 7354−7363

    [46]

    Gulrajani I, Ahmed F, Arjovsky M, et al. Improved training of wasserstein GANs[C] // Proc of the 30th Advances in Neural Information Processing Systems (NIPs). La Jolla, CA: NIPS, 2017: 5767−5777

    [47]

    Arjovsky M, Chintala S, Bottou L. Wasserstein generative adversarial networks [C] //Proc of the 30th Advances in Neural Information Processing Systems (NIPS). La Jolla, CA: NIPS, 2017: 214−223

    [48]

    Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[J]. arXiv preprint, arXiv: 1409.1556, 2014

    [49] 封顺. 论中国画中的“留白”艺术[J]. 大舞台,2013(6):90−91

    Feng Shun. On the art of "leaving blank" in Chinese painting[J]. Grand Stage, 2013(6): 90−91 (in Chinese)

    [50]

    Arjovsky M, Chintala S, Bottou L. Wasserstein generative adversarial networks[C] //Proc of the 34th Int Conf on Machine Learning (ICML). New York: ACM, 2017: 214−223

    [51]

    Yu Jiahui, Lin Zhe, Yang Jimeiecc, et al. Generative image inpainting with contextual attention [C] // Proc of the 31st IEEE Conf on Computer Vision and Pattern Recognition (CVPR). Los Alamitos, CA: IEEE Computer Society, 2018: 5505−5514

    [52]

    Liu Guilin, Reda F A, Shih K J, et al. Image inpainting for irregular holes using partial convolutions [C] //Proc of the 16th European Conf on Computer Vision (ECCV). Berlin: Springer, 2018: 85−100

  • 期刊类型引用(2)

    1. 许明,李金烨,左东宇,张晶. 基于流量预测的信号灯配时优化强化学习方法. 系统仿真学报. 2025(04): 1051-1062 . 百度学术
    2. 李超,李文斌,高阳. 图多智能体任务建模视角下的协作子任务行为发现. 计算机研究与发展. 2024(08): 1904-1916 . 本站查看

    其他类型引用(4)

图(10)  /  表(9)
计量
  • 文章访问数:  190
  • HTML全文浏览量:  21
  • PDF下载量:  97
  • 被引次数: 6
出版历程
  • 收稿日期:  2022-07-23
  • 修回日期:  2023-01-10
  • 网络出版日期:  2023-09-19
  • 刊出日期:  2023-11-30

目录

/

返回文章
返回