Processing math: 7%
  • 中国精品科技期刊
  • CCF推荐A类中文期刊
  • 计算领域高质量科技期刊T1类
高级检索

考虑长度匹配的快速单通量量子电路布线算法

刘耿耿, 余延涛, 周茹平, 魏榕山, 徐宁

刘耿耿, 余延涛, 周茹平, 魏榕山, 徐宁. 考虑长度匹配的快速单通量量子电路布线算法[J]. 计算机研究与发展, 2025, 62(5): 1151-1163. DOI: 10.7544/issn1000-1239.202440065
引用本文: 刘耿耿, 余延涛, 周茹平, 魏榕山, 徐宁. 考虑长度匹配的快速单通量量子电路布线算法[J]. 计算机研究与发展, 2025, 62(5): 1151-1163. DOI: 10.7544/issn1000-1239.202440065
Liu Genggeng, Yu Yantao, Zhou Ruping, Wei Rongshan, Xu Ning. Rapid Single-Flux-Quantum Circuit Routing Algorithm Considering Length Matching[J]. Journal of Computer Research and Development, 2025, 62(5): 1151-1163. DOI: 10.7544/issn1000-1239.202440065
Citation: Liu Genggeng, Yu Yantao, Zhou Ruping, Wei Rongshan, Xu Ning. Rapid Single-Flux-Quantum Circuit Routing Algorithm Considering Length Matching[J]. Journal of Computer Research and Development, 2025, 62(5): 1151-1163. DOI: 10.7544/issn1000-1239.202440065
刘耿耿, 余延涛, 周茹平, 魏榕山, 徐宁. 考虑长度匹配的快速单通量量子电路布线算法[J]. 计算机研究与发展, 2025, 62(5): 1151-1163. CSTR: 32373.14.issn1000-1239.202440065
引用本文: 刘耿耿, 余延涛, 周茹平, 魏榕山, 徐宁. 考虑长度匹配的快速单通量量子电路布线算法[J]. 计算机研究与发展, 2025, 62(5): 1151-1163. CSTR: 32373.14.issn1000-1239.202440065
Liu Genggeng, Yu Yantao, Zhou Ruping, Wei Rongshan, Xu Ning. Rapid Single-Flux-Quantum Circuit Routing Algorithm Considering Length Matching[J]. Journal of Computer Research and Development, 2025, 62(5): 1151-1163. CSTR: 32373.14.issn1000-1239.202440065
Citation: Liu Genggeng, Yu Yantao, Zhou Ruping, Wei Rongshan, Xu Ning. Rapid Single-Flux-Quantum Circuit Routing Algorithm Considering Length Matching[J]. Journal of Computer Research and Development, 2025, 62(5): 1151-1163. CSTR: 32373.14.issn1000-1239.202440065

考虑长度匹配的快速单通量量子电路布线算法

基金项目: 国家自然科学基金项目(62372109);福建省杰出青年科学基金项目(2023J06017)
详细信息
    作者简介:

    刘耿耿: 1988年生. 博士,教授,博士生导师,CCF杰出会员. 主要研究方向为微流控生物芯片和集成电路的设计自动化

    余延涛: 2000年生. 硕士研究生. CCF学生会员. 主要研究方向为超大规模集成电路布线

    周茹平: 1998年生. 博士研究生. CCF学生会员. 主要研究方向为超大规模集成电路布线、时钟树综合

    魏榕山: 1980年生. 博士,教授,博士生导师. 主要研究方向为智能传感器芯片设计、面向深度学习等应用的人工智能芯片设计

    徐宁: 1968年生. 博士,教授,博士生导师. CCF高级会员. 主要研究方向为电子设计自动化、集成电路设计自动化、人工智能

    通讯作者:

    魏榕山(wrs08@fzu.edu.cn

  • 中图分类号: TP391

Rapid Single-Flux-Quantum Circuit Routing Algorithm Considering Length Matching

Funds: This work was supported by the National Natural Science Foundation of China (62372109) and the Fujian Science Foundation for Distinguished Young Scholars (2023J06017).
More Information
    Author Bio:

    Liu Genggeng: born in 1988. PhD, professor, PhD supervisor. Distinguished member of CCF. His main research interests include design automation for microfluidic biochips and integrated circuits

    Yu Yantao: born in 2000. Master candidate. Student member of CCF. His main research interest includes VLSI routing

    Zhou Ruping: born in 1998. PhD candidate. Student member of CCF. Her main research interests include VLSI routing and clock tree synthesis

    Wei Rongshan: born in 1980. PhD, professor, PhD supervisor. His main research interests include intelligent sensor chip design, and artificial intelligence chip design for deep learning and other applications

    Xu Ning: born in 1968. PhD, professor, PhD supervisor. Senior member of CCF. His main research interests include electronic design automation, design automation for integrated circuits, and artificial intelligence

  • 摘要:

    由于快速单通量量子 (rapid single-flux-quantum, RSFQ)电路的高频特性,对电路的版图设计构成了巨大挑战. 针对RSFQ电路的高频特性带来的电路时延问题,可以在布线阶段通过使用延时元件如无源传输线来解决. 因为无源传输线的时延与它的长度近似成正比,且传输线的功耗不随着线长增加而增大,所以对于快速单通量量子电路而言长度匹配布线是一个非常重要的问题. 为此,提出了一种高效的考虑长度匹配的RSFQ电路布线算法,包括3个关键策略:1)在生成初始路径时,提出了一种迂回布线的方法,在不改变初始布线空间的情况下,满足无源传输线的部分长度匹配;2)提出了一种基于区域感知的迭代资源插入策略,减少需要添加的额外资源区域;3)提出了一种考虑阻塞代价的长度匹配驱动布线策略,提高了对布线空间的资源利用. 实验结果表明所提算法与现有的多端布线算法相比,布线所需的区域面积减少了8%,运行时间减少了36%,从而取得快速且高质量的布线结果.

    Abstract:

    The high frequency characteristics of rapid single-flux-quantum (RSFQ) circuits poses a great challenge to circuit layout design. In order to solve the circuit delay problem caused by the high frequency characteristics of RSFQ, delay elements such as passive transmission line can be used in the routing stage. The delay of a passive transmission line is roughly proportional to its length, and the power consumption of the passive transmission line does not increase with the increase of the wirelength, so length matching routing is a crucial problem for RSFQ circuits. Therefore, we propose an efficient RSFQ circuit routing algorithm considering length matching, including the following key strategies: 1) when generating the initial path, a method of detour routing is presented to meet the partial length matching of passive transmission lines without changing the initial routing space; 2) an iterative resource insertion algorithm based on region-awareness is utilized to reduce the area of additional resources needed to be added; 3) a length-matching driven routing algorithm considering blocking cost is designed, which improves the resource utilization of routing space. Experimental results show that, compared with existing multi-terminal routing algorithms, the proposed algorithm reduces the area required for routing by 8% and the running time by 36%, thus achieving fast and high-quality routing results.

  • 游戏博弈作为现实世界的一种高度抽象,具有良定义、易检验算法性能等特点,成为目前智能决策研究的热点. 近些年,一系列人工智能方法在游戏中均取得了很好的效果,甚至战胜人类,彰显出人工智能在现实应用中极大的潜力,具有重大的意义. 而且,不断有新的算法在各类游戏博弈中取得重要进展. 如在围棋中,以AlphaGo[1]和AlphaZero[2]为代表的人工智能战胜了李世石、柯洁等人类顶尖高手;Libratus[3]和Pluribus[4]战胜德州扑克(Texas Hold’em)职业冠军;Suphx[5]在天凤麻将平台超越职业选手段位;AlphaStar[6],OpenAI-Five[7]分别在星际争霸中与DOTA2中战胜人类世界冠军等.

    目前针对棋牌类游戏存在多种求解方式,例如:1)基于强化学习(reinforcement learning)的方法[1-2, 6-8]采用试错的方式学习智能体在自身观测状态下的最优策略,通过深度神经网络拟合状态动作值函数或状态动作概率分布的方法,根据获取到的经验更新相应神经网络,得到更好的策略;2)基于反事实遗憾最小化(counterfactual regret minimization,CFR)的方法[3-4, 9-10]采用类似在线学习的方式,在每一轮迭代中计算每种自身观测状态下所有动作的反事实遗憾,根据遗憾匹配(regret matching)等遗憾最小化方法生成新一轮策略,尝试降低新策略的遗憾,最终输出每一轮的平均策略;3)通过在线优化的方法,如一阶方法(first order method)[11],将中小规模二人零和博弈问题建模为一个凸优化问题进行求解.

    国内扑克游戏,如掼蛋、斗地主等,作为一类非完美信息博弈,相较于目前已有较好算法的德州扑克等游戏博弈有较大差异. 国内扑克游戏具有信息集状态多、动作空间复杂、状态动作难以约简等特点[8],因此大部分现有方法难以应用. 例如用于求解德州扑克的蒙特卡洛反事实遗憾最小化[10,12](Monte Carlo counterfactual regret minimization,MCCFR)算法虽然能缓解在求解德州扑克问题时由于博弈树大小而引发的难以迭代遍历问题[13],但是斗地主或掼蛋这样无法简单进行状态动作空间约简的扑克游戏,其博弈树规模仍过于庞大,无法简单适用;经典的强化学习方法如DQN[14-15],A3C[16-17]等则由于较大的动作空间导致这些算法的网络结构难以较好地拟合扑克类的值函数[8],从而无法在掼蛋、斗地主等国内扑克类游戏中取得较好的效果.

    深度蒙特卡洛[8](deep Monte Carlo,DMC)方法是目前针对国内扑克游戏设计人工智能算法所面临问题的主要解决途径之一. DMC方法采用蒙特卡洛采样评估状态动作值函数,其考虑到斗地主等扑克游戏动作不易约简且动作之间由于出牌相似而具有相似关系的特点,通过将动作进行编码与状态一同作为神经网络的输入,借此解决动作空间大且不易约简的问题. 同时DMC方法采用TorchBeast[18]训练框架,通过大量采样来降低训练方差,在斗地主游戏中取得了较好的效果. 但是单纯的DMC方法在面对以掼蛋为代表的更大规模扑克博弈时,依然面临一些问题:1)DMC方法需要大量的训练时间. 采用DMC方法的DouZero系统,在对抗专家策略的监督学习方法时,在斗地主环境中需要10天时间才能达到50%的对抗胜率. 因此对于更复杂的扑克博弈如掼蛋,其信息集数量、信息集大小、动作空间、每局历史信息长度均远超斗地主,需要更多的训练时间. 2)DMC方法实际执行策略过程中总是选择第1个状态动作值最大的动作,因此在实际对局过程中更容易被对手利用. 同时由于DMC训练过程中的高方差原因,较小的值扰动也可能造成较大的策略差异,从而造成策略质量较大的变化.

    为了有效解决训练时间问题,考虑到在常见的扑克博弈中,存在大量的已有知识或领域知识,因此如果能够将现有的先验知识融入算法的训练过程,将大大提升算法的训练效率. 为此文献[19]提出一种暖启动(warm start)方法,该方法针对反事实遗憾最小化算法进行暖启动,通过已有策略,赋予在每个信息集中的动作一个合适的反事实遗憾值,从而实现对于策略求解的加速计算. 然而,暖启动方法需要获取整个博弈信息,从而进行期望值与遗憾值的计算,因此对于大规模扑克博弈需要进行大幅度的状态与动作的约简,而这对于斗地主、掼蛋等国内主流扑克博弈难以实现,相关方法较难直接应用.

    因此本文提出了一种软深度蒙特卡洛(soft deep Monte Carlo,SDMC)方法,对以掼蛋为代表的国内扑克类博弈进行求解. 首先针对DMC方法需要大量训练时间的问题,提出通过软启动(soft warm start)方式,结合已有策略知识,在训练过程中进行已有策略决策与SDMC策略模型决策的混合决策,辅助进行策略训练,提升策略收敛速度;然后在实际对战过程中依据策略模型状态动作值预测,通过软动作采样(soft action sample,SAS),缓解DMC方法仅选择最大值动作时,由于策略固定而易被对手利用等问题,增强策略鲁棒性. 最后,本文在掼蛋博弈中进行实验验证. 本文提出的SDMC方法在第2届“中国人工智能博弈算法大赛”取得冠军,在与DMC方法和第1届冠军等其他参赛算法进行对比实验证明了本文所提出的方法在掼蛋扑克博弈中的有效性.

    本节首先介绍现有扑克类博弈的求解方法,并分析各个方法的优缺点;其次着重介绍在斗地主中的最新方法,从而更好地介绍本文提出的SDMC方法.

    DMC方法是由Zha 等人[8]提出,是应用在斗地主环境下DouZero AI系统中的核心算法. DMC方法考虑到斗地主等扑克游戏动作不易约简且动作之间存在相似关系的特点,通过将动作进行编码与状态一同作为神经网络的输入,解决现有其他方法在大规模具有相似动作的空间下不适用的问题. 具体来讲,DMC方法尝试训练神经网络V,使其输出值与实际的值函数尽可能地相近:

    θ=argminθ||Q(τit,ai)Vθ(τit,ai)||, (1)

    其中θ为神经网络V的参数,且

    Q(τit,ai)=EτP(τ|π,τit,ai)[R(τ)] (2)

    为在当前动作观测历史τit下,选择动作ai后,依据当前策略π所能获得的期望奖励值.

    在训练过程中,DMC方法采用ϵ-贪心的策略选择方法,即给定神经网络和参数Vθ,训练过程中选择的策略

    πϵ(τit,ai)=(1ϵ)I(ai==a)+ϵ|A|, (3)

    其中|A|为当前可选动作数量,a=argmaxaV(τit,a)I()为指示函数(indicating function)且仅在参数为真时结果为1,否则为0,argmax函数选择值最大的第1个动作.

    在实际博弈过程中,DMC方法直接选择值函数最大的动作,即在AOH选择τit,可选动作集合A下,策略为

    π(τit,ai)=I(ai==argmaxaV(τit,a)). (4)

    扑克类游戏作为一种天然的非完美信息博弈,已经具有悠久的研究历史.

    针对竞争型的扑克类游戏,如德州扑克,通常采取求解纳什均衡的方式. 其中为代表的CFR[9]采用自博弈的方式进行训练. 在训练的每一轮中,个体与上一轮训练出的策略进行对抗,并依靠遍历整棵博弈树的方式计算策略的遗憾,通过最小化遗憾的方式最终求解博弈的纳什均衡. 但受制于CFR的遍历过程,随着博弈规模的增加,遍历整棵博弈树需要极大的时间与空间,因此MCCFR[10]方法采取采样的方式更新博弈策略的遗憾,降低算法需求. 虽然CFR类的方法在以德州扑克为代表的博弈中取得惊人的效果,但是其方法限制了其在大规模环境下的应用,往往需要结合博弈约简(abstraction)[20]方法,降低博弈树规模. 因此难以处理如掼蛋、斗地主等非完美信息博弈.

    而对合作型的扑克类游戏如Hanabi,则有着更为多样的求解范式. 不同于竞争型博弈下致力于求解纳什均衡而将其看作一个优化问题,合作型博弈也可以建模为一类学习问题[21]. 其中贝叶斯动作编码器(Bayesian action decoder,BAD)[22-23]方法在Hanabi中取得了最为理想的成果. BAD方法使用深度强化学习的方式在公共信念中探索合适的策略,但此类方法仅面向纯合作类场景选取确定性动作,无法简单适用到如掼蛋这样具有竞争合作的混合场景中.

    针对掼蛋、斗地主等牌类博弈面对状态、动作空间复杂不易求解等问题,You等人[24]提出通过一种组合Q网络(combinatorial Q-network)的方式,将决策过程分为组牌和出牌2个步骤. 但组牌过程耗时巨大,不利于在大规模环境下的训练.DeltaDou方法[25]通过贝叶斯推断的方式推理对手的卡牌,之后采用类似于AlphaZero的方式进行蒙特卡洛树搜索,从而对策略进行训练,但仍需约20天的训练时间才能在斗地主中达到专家水平.

    掼蛋扑克博弈问题由于具有无法观测对手手牌内容、独立决策的特性,经常被建模为一个部分可观测的马尔可夫决策过程(partially observable Markov decision process,POMDP). 在部分可观测马尔可夫决策过程中,智能体i表示智能体的编号索引,状态s表示当前实际状态. 在每一个时间点t,每一个智能体i都会观测到一个观测状态oi=Z(S,i),这里函数Z是一个观测函数. 在每次智能体观测到观测状态oi时,智能体i都可以选择一个动作 {\boldsymbol{a}} . 因此,智能体 i 的策略 {\pi }_{i} 可以看做一个动作观测历史(action-observation history,AOH) {\tau }_{t}=\{{o}_{0}^{i},{a}_{0}^{i},{o}_{1}^{i},{a}_{1}^{i},…o_{t-1}^i,a_{t-1}^i,{o}_{t}^{i}\} 的函数. 每当所有智能体执行一个动作后,当前状态 {s}_{t} 会根据环境转移函数转换到新的状态 {s}_{t+1}\sim \mathcal{P}\left({s}_{t+1}|{s}_{t},{{\boldsymbol{a}}}\right) ,其中 \boldsymbol{a}=({a}^{0},{a}^{1},… ) 为所有智能体的联合动作,每个智能体 i 会收到环境的奖励 {r}_{t}^{\;i}={\mathcal{R}}^{i}({s}_{t},\boldsymbol{a}) . 因此当前状态下的轨迹可用 {\tau }_{t}=\left\{{s}_{0},{\boldsymbol{a}}_{0},s_1,{\boldsymbol{a}}_1,… ,s_{t-1},{\boldsymbol{a}}_{t-1},{s}_{t}\right\} 表示. 在POMDP中,智能体 i 目标在于最大化自身奖励 {J}_{\pi }={E}_{\tau \sim P\left(\tau \right|\pi )}\left[R\left(\tau \right)\right] ,其中函数 R\left(\tau \right)=\displaystyle\sum_{t}{{\gamma }^{t}r}_{t} 为智能体收到的折扣累计奖赏, \gamma 为累计折扣因子.

    掼蛋扑克博弈,具有序贯决策特性,即每个AOH下最多有1个智能体进行决策,状态转移函数可约简为 {s}_{t+1}=\mathcal{P}\left({s}_{t+1}|{s}_{t},{a}^{i}\right) ,其中 {a}^{i} 为当前智能体决策. 由于扑克博弈的关键信息通常由2部分组成:手牌、已打出牌等当前状态信息与所有参与博弈的智能体的历史动作信息,且可以通过当前观测状态与历史动作信息对牌局进行复盘,故掼蛋博弈的AOH可由 {\tau }_{t}^{\;i}=\left\langle{Z\left({s}_{t},i\right),{H}_{t}}\right\rangle 进行表示,其中 {h}_{t}^{i}\in {H}_{t} 为智能体 i 在包含时刻 t 前的动作历史 \left\{{a}_{0}^{i},{a}_{1}^{i},\dots ,{a}_{t}^{i}\right\} . 掼蛋扑克博弈不同于普通的POMDP,其奖励值往往仅存在于终止状态集合 {S}_{\mathrm{t}\mathrm{e}\mathrm{r}\mathrm{m}\mathrm{i}\mathrm{n}\mathrm{a}\mathrm{l}} ,因此对于非终止状态 {s}_{t} ,所有智能体获取到的奖励为0,即 \forall i,{s}_{t}\notin {S}_{\mathrm{t}\mathrm{e}\mathrm{r}\mathrm{m}\mathrm{i}\mathrm{n}\mathrm{a}\mathrm{l}},{\mathcal{R}}^{i}\left({s}_{t},\boldsymbol{a}\right)=0 ,因此累计折扣因子通常可以设置为1.

    本节将介绍SDMC方法,SDMC方法包含软启动与软动作采样2个过程,解决现有方法在以掼蛋为例的扑克博弈中的问题. 同时,为了更好地进行深度学习训练,本文亦创新性地提出了一种针对深度学习的掼蛋扑克博弈编码方法.

    DMC方法将动作观测历史与可选择动作进行结合,作为神经网络输入,通过蒙特卡洛采样方式对值函数进行拟合,采样策略根据神经网络预测值采用 \epsilon -贪心的策略.

    由于DMC方法采用随机网络进行初始化,再通过自博弈的方式不断自我对战产生样本,并进行更新. 因此在训练初期DMC自博弈产生的博弈轨迹样本的值更多是面对对手使用随机策略时的动作值,由此产生出的策略往往并不具有实用价值,只是训练迭代过程中的中间策略,为后续更强策略的训练提供基础.

    为了加快策略的训练过程并尽量降低因加速训练过程而产生的影响,本文提出了软启动DMC方法,通过软启动的方式进行训练,借助已有策略,尽量加速训练过程.

    具体的,对于已有策略 {\pi }_{\mathrm{E}} ,软启动DMC尝试融合借鉴预训练方法. 常见的预训练通过训练一个神经网络模型 {V}_{\theta } ,使得其输出预测值与已有策略值函数尽可能相近,即

    \begin{array}{c}{\theta }^{\;*}=\underset{\theta }{\mathrm{arg}\;{\mathrm{min}}}\left| \left|{Q}_{\mathrm{E}}\left({\tau }_{t}^{\;i},{a}^{i}\right)-{V}_{\theta }\left({\tau }_{t}^{\;i},{a}^{i}\right)\right| \right|,\end{array} (5)

    其中 {Q}_{\mathrm{E}}\left({\tau }_{t}^{\;i},{a}^{i}\right) 为已有策略的值函数.

    但是已有策略的值函数由于掼蛋扑克博弈规模过大通常难以直接获取,因此可以通过蒙特卡洛采样的方式进行自博弈模拟评估:

    \begin{array}{c}{Q}_{\mathrm{E}}\left({\tau }_{t}^{\;i},{a}^{i}\right)={E}_{\tau \sim P\left(\tau |{\pi }_{\mathrm{E}},{\tau }_{t}^{\;i},{a}^{i}\right)}\left[R\left(\tau \right)\right]. \end{array} (6)

    但由于已有策略具有先验知识,有较多的动作并不会主动选择,故直接自博弈评估时可能存在较多的动作没有给出评估值,从而出现如过估计[26]等问题. 而通过在已有策略 {\pi }_{\mathrm{E}} 中加入 \epsilon -贪心的方式可以部分缓解该问题,但仍面临若 \epsilon 设置较大,则自博弈的评估并非已有策略值;而若 \epsilon 设置较小,则由于探索样本比例较低,需要大量的训练才可进行较好的拟合,出现与最初降低训练时间需求的初衷相违背的问题.

    考虑到由于已有策略并非一定最优,经过初始化过后仍需采取自博弈的方式进行训练,因此软启动考虑在训练过程中融入已有策略而非如文献[19]直接去拟合已有策略方式,如图1(a)所示. 这样既融入了已有策略对当前模型训练进行加速,同时又避免了普通的暖启动方法所面临的过估计等问题.

    图  1  SDMC的整体流程
    Figure  1.  Overview of SDMC

    具体来讲,软启动结合已有策略与当前模型生成策略的自博弈评估值 {\widetilde{Q}}_{\mathrm{E}}\left({\tau }_{t}^{\;i},{a}^{i}\right) 代替式(5)中的已有策略评估值 {Q}_{\mathrm{E}}\left({\tau }_{t}^{\;i},{a}^{i}\right) ,即

    \begin{array}{c}{\theta }^{\;*}=\underset{\theta }{\mathrm{arg}\;{\mathrm{min}}}\left| \left|{\widetilde{Q}}_{\mathrm{E}}\left({\tau }_{t}^{\;i},{a}^{i}\right)-{V}_{\theta }\left({\tau }_{t}^{\;i},{a}^{i}\right)\right| \right|. \end{array} (7)

    其中软启动所采用的评估值由策略 {\widetilde{\pi }}_{\mathrm{E}} 生成, {\widetilde{\pi }}_{\mathrm{E}} 结合了式(4)中当前模型生成的策略 \pi 与已有策略 {\pi }_{\mathrm{E}} :

    \begin{array}{c}{\widetilde{\pi }}_{\mathrm{E}}\left({\tau }_{t}^{\;i},{a}^{i}\right)=\dfrac{\epsilon }{\left|A\right|}+\left(1-\omega -\epsilon \right)\pi \left({\tau }_{t}^{\;i},{a}^{i}\right)+\omega {\pi }_{\mathrm{E}}\left({\tau }_{t}^{\;i},{a}^{i}\right),\end{array} (8)

    为混合了2种决策模型的 \epsilon -贪心策略,其中权重 \omega 为软启动参数,可随着训练的进行而衰减.

    具体算法流程如算法1所示.

    算法1. 软启动蒙特卡洛.

    初始化:初始化经验缓存 {\left\{{B}_{i}\right\}}_{i=1}^{n} 与经验缓存 {\left\{{D}_{i}\right\}}_{i=1}^{n}    为空,其中 n 为智能体数量;随机初始化SDMC   神经网络 {\left\{{V}_{i}\right\}}_{i=1}^{n} 的参数 {\theta }_{i} .

    ① for episode=1 to max_episodes

    ②  for t=0 to T

    ③    i\leftarrow 当前行动智能体编号;

    ④   智能体 i 观测到动作观测历史 {\tau }_{t}^{\;i}

    ⑤   由式(8)计算软启动策略 {\widetilde{\pi }}_{\mathrm{E}}^{i}

    ⑥   选取动作 {a}^{i}\sim{\widetilde{\pi }}_{\mathrm{E}}^{i}

    ⑦   存储样本 \left\{{\tau }_{t}^{\;i},{a}^{i}\right\} 至经验缓存 {B}_{i}

    ⑧  end for

    ⑨  获得环境奖励 \boldsymbol{r}=({r}_{1},{r}_{2},\dots ,{r}_{n})

    ⑩  for i=1 to n

    ⑪   for \left\{{\tau }_{t}^{\;i},{a}^{i}\right\} in {B}_{i}

    ⑫     存储样本 \left\{{\tau }_{t}^{\;i},{a}^{i},{r}_{i}\right\} 至经验缓存 {D}_{i}

    ⑬    end for

    ⑭    清空经验缓存 {B}_{i}

    ⑮    while {D}_{i}.length > batch\_size

    ⑯     从 {D}_{i} 采样并更新神经网络 {V}_{i}

    ⑰    end while

    ⑱  end for

    ⑲ end for

    ⑳ 输出:神经网络模型 {\left\{{V}_{i}\right\}}_{i=1}^{n} .

    对于掼蛋这类大规模扑克博弈,可以通过TorchBeast[18]框架进行并行训练. 具体对于算法1来说,每一个actor执行算法1中 ①~⑭步,并在每次循环开始之前与learner同步模型;learner执行⑮~⑰步.

    传统DMC方法在使用模型决策时,一般选择最大值的动作,即对于动作观测历史 {\tau }_{t}^{\;i} 和可选动作集合 A ,由式(4)选择动作. 但由于仅选择最大值的动作容易受到微小扰动的干扰,如训练方差等,导致策略大幅度变化,因此评估值较为接近的动作都有可能是最好的动作,且在实际使用过程中完全确定性的策略较易被对手猜测出自身手牌等信息,因此采用带有软动作采样(soft action sample,SAS)的动作选择方式,流程如图1(b)所示,在保证所选动作在当前模型的评估下评估值变化不大的前提下,通过舍弃可选动作集合中值较低的动作,保留评估值与最大值接近的备选动作,构造备选动作集合 \hat{A} ,并在备选动作集合 \hat{A} 中对每一个动作的值进行softmax处理,按比例分配被选择的概率:

    \begin{array}{c}P\left({a}^{i}|{\tau }_{t}^{\;i},\theta \right)={\mathrm{e}}^{{V}_{\theta }\left({\tau }_{t}^{\;i},{a}^{i}\right)}/\displaystyle\sum\limits _{{a}'\in \hat{A}}{\mathrm{e}}^{{V}_{\theta }\left({\tau }_{t}^{\;i},{a}'\right)},\end{array} (9)

    最终根据概率分布 P\left(a|{\tau }_{t}^{\;i},\theta \right) 选择动作. 其中备选集合 \hat{A} 的选择方式可通过设定最低阈值的形式,即对于阈值 {v}_{{\tau }_{t}^{\;i}} ,备选集合 \hat{A}

    \begin{array}{c}\hat{A}=\left\{{a}^{i}|\forall {a}^{i}\in A,{V}_{\theta }\left({\tau }_{t}^{\;i},{a}^{i}\right)\ge {v}_{{\tau }_{t}^{\;i}}\right\}. \end{array} (10)

    对于阈值的选择需要保证其与最大值尽量接近,可根据当前所有动作的值的分布选择. 具体而言,可以通过设置较小的阈值权重 {\omega }'选择 {v}_{{\tau }_{t}^{\;i}}

    \begin{split} {v}_{{\tau }_{t}^{\;i}}=\; &\underset{{a}^{i}}{\mathrm{max}}{V}_{\theta }\left({\tau }_{t}^{\;i},{a}^{i}\right)- {\omega }'\left(\underset{{a}^{i}}{\mathrm{max}}{V}_{\theta }\left({\tau }_{t}^{\;i},{a}^{i}\right)-\underset{{a}^{i}}{\mathrm{min}}{V}_{\theta }\left({\tau }_{t}^{\;i},{a}^{i}\right)\right)=\\ & \left(1-{\omega }'\right)\underset{{a}^{i}}{\mathrm{max}}{V}_{\theta }\left({\tau }_{t}^{\;i},{a}^{i}\right)+{\omega }'\underset{{a}^{i}}{\mathrm{min}}{V}_{\theta }\left({\tau }_{t}^{\;i},{a}^{i}\right). \\[-1pt] \end{split} (11)

    原则上,阈值的选择应保证将所有最优动作筛选出来,并摒弃所有非最优动作. 若能精确估计所有动作的 Q 值,则权重 {\omega }'应设为0,即仅选择最优的动作. 但由于训练过程中的采样带来的方差扰动,使得最优动作的 Q 值并非准确值,故而需采用较小的权重. 随着训练过程的增加, Q 值愈发准确,可适当降低权重大小.

    软动作采样算法流程如算法2所示.

    算法2. 软动作采样.

    输入:决策模型 {V}_{\theta } ,动作观测历史 {\tau }_{t}^{\;i} ,可选动作      集合 A ,阈值权重 {\omega }'

    输出:模型最终选择动作 {a}^{i} .

    ① 由式(11)计算阈值 v

    \hat{A}\leftarrow \left\{{a}'|\forall {a}'\in A,{V}_{\theta }\left({\tau }_{t}^{\;i},{a}'\right)\ge v\right\}

    \boldsymbol{P}\leftarrow \left(0,0,\dots ,0\right) ; /*初始化每个动作的概率为0*/

    ④ for {a}' in \hat{A}

    ⑤   由式(9)计算每个动作的概率 \mathit{P}\left({a}'\right)

    ⑥ end for

    {a}^{i}\sim\boldsymbol{P} ; /*根据概率分布 \boldsymbol{P} 采样一个动作 {a}^{i} */

    ⑧ 返回结果 {a}^{i} .

    对状态信息进行编码是深度强化学习在扑克环境中进行应用的重要组成部分,本节从DouZero[8]针对斗地主的编码方法出发,根据掼蛋扑克游戏与斗地主的不同,创新性地提出一种适用于掼蛋扑克游戏的编码框架.

    对于掼蛋扑克牌局状态的编码应至少包含3部分:私有信息、当前可出牌与公共信息. 私有信息一般则为自己的手牌;当前可出牌包含所有可能出牌动作;公共信息包含出牌记录与对局信息,牌局信息指如掼蛋中的牌局等级信息、当前其余玩家手牌数量等当前对局的信息. 在此基础上可以添加额外的信息辅助深度网络进行训练.

    状态的编码均采用1位有效编码的形式. 手牌信息根据游戏使用的牌数量构建不同大小的空矩阵,若使用 n 副牌则构建 n\times (4\times 13+2) 大小的矩阵,其中 4\times 13+2 表示1副牌,4为花色索引,13为点数索引,2表示大小王,当拥有某张手牌时,对应位置的矩阵数值置为1. 对于标准掼蛋规则,由于使用2副牌,因此 n=2 ,具体卡牌编码如图2“卡牌表示”部分所示.

    图  2  掼蛋扑克信息编码示例
    Figure  2.  An example of information encoding in GuanDan poker game

    出牌动作的编码类似手牌编码方式,分别对出牌动作的类型、大小与所使用的牌进行编码. 对类型、大小的编码可解决相同出牌具有不同出牌类型与大小情况,如掼蛋中部分具有逢人配的顺子等,以及区分在编码出牌记录时无出牌记录的0填充编码与“过牌”(PASS)在编码时的区别,并提供额外的信息辅助神经网络处理,如图2所示.

    对于出牌记录的处理主要包括对出牌动作的编码与出牌动作结构的组织. 对于SDMC与DMC等方法,出牌记录信息会被输入到循环神经网络,因此可采取序列式结构对出牌进行组织,即从下家出牌到智能体自己出牌为止1轮的出牌编码进行拼接.

    本节对本文提出的SDMC方法进行实验分析,使用掼蛋扑克环境,衡量SDMC方法中软启动的加速训练效果,并分别与第1届、第2届“中国人工智能博弈算法大赛”的参赛算法对比,证明SDMC方法的有效性.

    掼蛋是国内一种广泛流传的扑克类博弈. 掼蛋博弈使用2副扑克牌,共108张牌,采取2对2的模式对抗,其中每个博弈玩家与对家为1支队伍进行对抗. 本文采用第2届“中国人工智能博弈算法大赛”中的掼蛋规则,下面简要介绍.

    1) 等级. 1局掼蛋博弈可以分为若干小局,每小局根据双方队伍等级中最高的决定当前牌局等级,并依据小局胜负情况更新双方的等级. 掼蛋对局中初始双方等级为2,之后依次为3,4,5,6,7,8,9,10,J,Q,K,A.

    2) 升级. 每小局对战结束后,仅第1个出完牌的玩家(称为上游)所在队伍可以升级,升级数依据队友出完牌的顺序决定:若队友第2个出完牌(称为二游),则升3级;第3个出完牌(称为三游),则升2级;若队友最后1个出完牌(称为下游),则只升1级.

    3) 获胜条件. 当一方队伍到达等级A,并且队伍中一人获得上游,另一人获得二游或者三游.

    4) 特殊牌. 掼蛋中和当前牌局等级相同的牌为级牌,其中红桃级牌称为逢人配,可当作任意牌与其他花色牌组合使用.

    5) 牌型. 掼蛋中牌型如下:单张、对子、三连对、三同张、二连三、三带二、顺子、同花顺、炸弹、天王炸. 其中炸弹张数多者为大,同样张数按照点数排序,同花顺大于任意不超过5张的炸弹,天王炸为2张大王和2张小王为最大牌型.

    6) 牌点大小. 掼蛋中牌点从大到小依次为:大王、小王、级牌、A、K、Q、J、10、9、8、7、6、5、4、3、2. A在搭配成三连对、二连三、顺子、同花顺时,可视作1.

    7) 进贡、还贡. 从第2小局开始,由上一轮的下游向上游进贡,挑选1张除红心级牌之外最大的牌给上游. 上游选择1张不大于10的牌给下游还贡. 如果上一局出现一方队伍获得三游和下游,则队伍2人均向对方队伍分别进贡和接受还贡. 如进贡方有2个大王,则可以不进贡.

    掼蛋由于使用2副牌,因此具有更高的求解复杂度,对算法训练效率提出了更大挑战. 仅第1轮发牌后的信息集的数量级约为1020,远超斗地主等扑克博弈(斗地主的第1轮发牌后数量级约1014,如考虑去除斗地主的花色影响约为108). 同时考虑到各个玩家拥有更多的手牌产生的指数级增长的可选动作以及等级、逢人配等因素,掼蛋实际信息集数量与大小远超斗地主等扑克博弈.

    本节主要描述了基于SDMC的掼蛋智能体实现细节,包含整体架构、状态编码方式与奖励设计3个方面.

    1) 整体架构细节

    基于SDMC的掼蛋智能体主要由2部分组成:掼蛋贡、还牌规则决策模块与出牌的SDMC决策模块. 其中所使用的掼蛋贡、还牌规则决策模块采用第1届“中国人工智能博弈算法大赛”的冠军规则. 出牌的SDMC决策模块中,式(11)中 {\omega }'=\dfrac{1}{500} .

    SDMC的网络结构与文献[8]相似,均采用LSTM网络处理历史动作,通过6层全连接网络输出动作评估值.

    2) 状态编码方式

    掼蛋编码方式采用2.3节编码框架,每一部分的编码大小如表1所示.

    表  1  掼蛋环境状态编码
    Table  1.  State Representation of GuanDan Games
    类型 含义 one-hot编码长度
    出牌动作 卡牌的矩阵表示 108
    类型的矩阵表示 10
    大小的矩阵表示 15
    私有信息 手牌的卡牌矩阵表示 108
    手牌中逢人配数量 3
    公共信息 当前等级 13
    其他玩家剩余手牌 108
    上家已出卡牌矩阵表示 108
    对家已出卡牌矩阵表示 108
    下家已出卡牌矩阵表示 108
    最近一次的出牌动作 133
    上家最近一次出牌动作 133
    对家最近一次出牌动作 133
    下家最近一次出牌动作 133
    上家剩余手牌数量 28
    对家剩余手牌数量 28
    下家剩余手牌数量 28
    最近4轮出牌的联合表示 532
    下载: 导出CSV 
    | 显示表格

    3) 奖励设计

    如3.1节介绍的,掼蛋胜负取决于队伍积分是否超过A,因此通过判断大局胜利的方式给予2队智能体奖励,可能会导致较差的小局内策略获得正奖励,因此在掼蛋环境训练过程中,当小局结束时,对双方队伍给定奖励,奖励分配方式如表2所示,1—1—2—2表示完牌顺序分别为队伍1、队伍1、队伍2、队伍2的选手.

    表  2  掼蛋环境训练中的奖励设计
    Table  2.  Reward Functions Designed in GuanDan Games
    完牌顺序 队伍1获得奖励 队伍2获得奖励
    1—1—2—2 +3 −3
    1—2—1—2 +2 −2
    1—2—2—1 +1 −1
    2—1—1—2 −1 +1
    2—1—2—1 −2 +2
    2—2—1—1 −3 +3
    下载: 导出CSV 
    | 显示表格

    设计的奖励方式基本与掼蛋晋级方式相同,但当掼蛋遇到等级A时有所不同,由于当一方队伍到达等级A时想要获胜至少要有一个队友第1个完牌并且另一个队友不能最后一个完牌,因此若以队伍1达到等级A为例,完牌顺序1—1—2—2与完牌顺序1—2—1—2相同,剩余4种完牌顺序奖励也相同. 考虑到SDMC方法会尽量选择高评估值的动作,因此不对奖励函数进行修正很大程度上并不会影响训练策略的正确性,故智能体在训练过程中并未对等级A进行特殊处理.

    本节通过与不同算法的对比验证SDMC的效果. 具体而言,分别与第1届“中国人工智能博弈算法大赛”的冠军(1st Champion)与前2届16强(1st Top 16和2nd Top 16)进行比较. 实验中选取2种算法作为2支队伍,采取2种评估指标,分别评估对战双方团队的胜利与净胜小分情况.

    我们首先验证了经过30天训练的SDMC与其他方法的最终胜率与净胜小分,每场对战均进500次,并重复验证5次,最终胜率与标准差如表3所示. 表3中的数据表示算法1对阵算法2时的胜率,如SDMC对抗2nd Top 16胜率为97.5%,算法的排名顺序按照击败(胜率>50%)其他算法的顺序进行排序.

    表  3  不同算法对抗胜率
    Table  3.  Winning Percentage of Different Algorithms Against Each Other %
    算法1 算法2
    SDMC(本文) SDMC-无SAS 1st Champion 2nd Top 16 1st Top 16
    SDMC(本文) \ 51.0\pm 1.0 92.1\pm 1.0 97.5\pm 0.7 100.0\pm 0.0
    SDMC-无SAS 49.0\pm 1.0 \ 91.8\pm 0.9 97.2\pm 0.9 100.0\pm 0.0
    1st Champion 7.9\pm 1.0 8.2\pm 0.9 \ 62.2\pm 1.0 97.3\pm 0.6
    2nd Top 16 2.5\pm 0.7 2.8\pm 0.9 37.8\pm 1.0 \ 94.9\pm 0.8
    1st Top 16 0.0\pm 0.0 0.0\pm 0.0 2.7\pm 0.6 5.1\pm 0.8 \
    注:“\”表示2种相同算法之间不对抗,没有对抗胜率.
    下载: 导出CSV 
    | 显示表格

    我们看到SDMC对战第1届比赛的冠军以及其他算法胜率均大于90%,对抗2nd Top 16和1st Top 16时胜率甚至分别大于97.5%和100%,因此可以认为SDMC的效果显著高于其他算法. 同时我们也对比了不使用SAS的SDMC(SDMC-无SAS)和使用SAS的SDMC的效果,对于测试的,使用SAS能够提升一定的SDMC的效果.

    同时对于净胜小分,我们详细列出了各种算法之间对战过程中双方小分的获得情况与净胜分,如表4所示. 可以看到SDMC在对战其他参赛方法的时候具有很高的3分得分率,即在掼蛋中有很高的双上(队伍分别以上游和二游完牌)概率,在对战1st Champion时达到44.3%,对战2nd Top 16时达到48.4%,对战1st Top 16时达到68.4%,因此对战过程中的净胜分非常高,对战1st Champion时平均每局净胜达到4955.6分. 同时观察到SDMC与SDMC-无SAS在对抗过程中无论是3分、2分、1分的占比还是净胜分均是SDMC更胜一筹,且SDMC在对战除2nd Top 16的对手时,净胜分均高于SDMC-无SAS.

    表  4  不同算法对抗时得分
    Table  4.  Score of Different Algorithms Against Each Other
    算法 对战算法 3分占比/% 2分占比/% 1分占比/% 净胜小分
    (500局)
    SDMC-无SASSDMC(本文) 23.0\pm 0.7 9.8\pm 0.3 13.7\pm 0.6 -95.6\pm 233.9
    1st Champion 12.3\pm 0.2 6.0\pm 0.4 13.9\pm 0.6 -495.6\pm 126.5
    2nd Top 16 8.5\pm 0.7 5.7\pm 0.6 12.8\pm 0.4 -5869.4\pm 96.7
    1st Top 16 2.0\pm 0.2 1.7\pm 0.2 7.5\pm 0.2 -7415.2\pm 47.1
    SDMC(本文)SDMC-无SAS 23.4\pm 0.6 11.3\pm 0.4 15.6\pm 0.8 95.6\pm 233.9
    1st Champion 12.4\pm 0.4 6.2\pm 0.4 13.8\pm 0.3 -4907.0\pm 80.0
    2nd Top 16 8.8\pm 0.4 5.7\pm 0.2 12.2\pm 0.4 -5885.4\pm 93.8
    1st Top 16 1.9\pm 0.2 1.8\pm 0.2 7.4\pm 0.3 -7387.4\pm 14.9
    SDMC(本文)1st Champion 44.3\pm 1.1 9.6\pm 0.2 13.8\pm 0.7 4955.6\pm 126.5
    SDMC-无SAS 44.2\pm 0.8 9.8\pm 0.3 13.7\pm 0.6 4907.0\pm 80.0
    2nd Top 16 23.3\pm 0.7 7.2\pm 0.3 16.3\pm 0.6 -1213.0\pm 128.4
    1st Top 16 8.7\pm 0.4 3.8\pm 0.4 14.4\pm 0.7 -5997.4\pm 140.3
    SDMC(本文)2nd Top 16 48.4\pm 0.4 12.0\pm 0.3 12.6\pm 0.3 5869.4\pm 96.7
    SDMC-无SAS 48.8\pm 0.7 12.0\pm 0.2 12.6\pm 0.4 5885.4\pm 93.8
    1st Champion 30.2\pm 0.4 9.2\pm 0.4 13.7\pm 0.4 1213.0\pm 128.4
    1st Top 16 10.1\pm 0.3 5.1\pm 0.3 15.7\pm 0.5 -5367.6\pm 63.4
    SDMC(本文)1st Top 16 68.4\pm 0.5 13.5\pm 0.6 7.0\pm 0.1 7415.2\pm 47.1
    SDMC-无SAS 68.1\pm 0.5 13.9\pm 0.5 7.0\pm 0.3 7387.4\pm 14.9
    1st Champion 50.5\pm 1.2 11.5\pm 0.4 11.0\pm 0.4 5997.4\pm 140.3
    2nd Top 16 42.6\pm 0.7 14.2\pm 0.4 12.4\pm 0.3 5367.6\pm 63.4
    下载: 导出CSV 
    | 显示表格

    最后为了验证本文提出的软启动方法的实验效果,我们比较了DMC方法、已有策略预训练的方法(基于策略启动的DMC)以及我们提出的采用软启动的SDMC方法对抗1st Top 16时的胜率与平均每小局净胜分曲线,如图3所示,其纵坐标分别为对抗的胜率与平均每小局净胜分,横坐标为训练所用的时间步. 对于每种方法,每次测试记录200局与1st Top 16的胜率与每小局净胜分结果,测试3次,图3绘制了测试的平均值与标准差. 其中基于策略启动的DMC采取与DMC和SDMC相同的神经网络架构与训练方式,不同之处在于基于策略启动的DMC每次自博弈生成轨迹是依据已有策略进行 \epsilon -贪心采样,训练基于策略启动的DMC模型. 基于策略启动的DMC所采用的已有策略与SDMC相同,均为1st Champion.

    图  3  3种方法在训练过程中对抗基准算法时的表现
    Figure  3.  Performance of three methods against baseline in training stage

    图3(a)中可以看到SDMC相较于DMC在训练初始阶段取得了较高的胜率提升速度,如在胜率达到60%时,SDMC需要约 2.7\times {10}^{8} 个时间步,而DMC则需要约 4\times {10}^{8} 个时间步,对于60%胜率,SDMC仅需DMC的68%训练开销. 同样地,在图3(b)中对于净胜小分,SDMC仅需 2.5\times {10}^{8} 个时间步即可达到净胜分大于0,而DMC需要约 3.8\times {10}^{8} 个时间步,SDMC降低了约 35\% 的时间需求.

    同时可以发现,相比于SDMC和DMC,基于策略启动的DMC训练效果不佳,原因可能正如2.1节中讨论的,仅通过已有策略生成数据在训练过程中由于掼蛋的动作空间过于庞大,因此无法很好地拟合未探索动作的值,因此存在过估计问题. 而DMC和SDMC因为存在通过神经网络去决策的步骤,当存在高评估值的动作时,由于倾向于选择高评估值动作,可以有效地对于这个动作的评估值进行验证,从而更好地评估.

    本文提出了一种针对掼蛋扑克博弈的软深度蒙特卡洛SDMC方法. SDMC方法在学习过程中不仅采用了软启动方法,结合已有策略,加速模型训练过程,同时采取软动作采样,在实际对战过程中,保证选择的策略在当前模型下的评估值变化不大的情况下对动作进行采样,降低训练过程中方差带来的影响,并增加被对手利用的难度. 在掼蛋环境下的实验表明,本文所提方法SDMC相较于现有方法有着更高的对战胜率与净胜得分. 之后,拟从软动作采样的角度出发,依据现有模型的动作评估值,结合子博弈求解方法提升在实战环境下的策略强度,致力于得到在团体对战情况下的团队最大最小均衡等博弈论角度下的最优策略,最终实现在掼蛋等扑克博弈环境下战胜人类的职业选手.

    作者贡献声明:葛振兴提出选题、研究内容,设计技术方案,撰写论文;向帅设计技术方案,采集和整理实验数据,修订论文;田品卓设计技术方案,提出指导性建议;高阳提出指导性建议,指导论文写作.

  • 图  1   SPL分配的对比

    Figure  1.   Comparison of SPL allocation

    图  2   本文算法流程图

    Figure  2.   Flowchart of our algorithm

    图  3   PTL切割及迂回布线

    Figure  3.   PTL cutting and detour routing

    图  4   迂回布线方案

    Figure  4.   Detour routing scheme

    图  5   资源分配及布线过程

    Figure  5.   Resource allocation and routing process

    图  6   布线区域扩展结果对比

    Figure  6.   Comparison of routing area expansion results

    图  7   插入位置的条件

    Figure  7.   Conditions for insertion position

    图  8   潜在可用单元的利用

    Figure  8.   Utilization of potentially available units

    图  9   布线结果的对比

    Figure  9.   Comparison of routing result

    图  10   局部布线结果

    Figure  10.   Local routing result

    图  11   运行时间对比

    Figure  11.   Comparison of running time

    表  1   多端线网测试用例详细信息

    Table  1   Details of Test Cases for Multi-Terminal Nets

    基准
    电路
    布线区域
    高度
    连接
    数量
    最大延长长度/
    平均延长长度
    RR0 356 83 0.00/0
    RR1 356 91 21.91/46
    RR2 356 99 28.26/56
    RR3 356 103 40.78/130
    RR4 356 105 94.02/252
    RR5 356 99 128.30/370
    RR6 356 50 67.60/346
    Newb1 356 99 126.30/370
    Newb2 356 106 91.01/252
    Newb3 356 91 64.30/260
    Newb4 356 50 113.15/554
    Newb5 356 105 95.24/288
    下载: 导出CSV

    表  2   基于PTL切割转移策略对比结果

    Table  2   Comparative Results of Strategies Based on PTL Cut and Shift

    基准电路 布线区域宽度
    文献[15] 文献[17] CAS(本文)
    RR0 20 20 20
    RR1 40 34 34
    RR2 46 40 39
    RR3 54 49 48
    RR4 108 79 75
    RR5 96 75 73
    RR6 28 28 28
    Newb1 97 78 74
    Newb2 103 82 80
    Newb3 54 50 47
    Newb4 49 39 35
    Newb5 102 82 78
    比率 1.26 1.04 1.00
    下载: 导出CSV

    表  3   基于区域感知的迭代资源插入策略对比结果

    Table  3   Comparative Results of Strategies Based on Area-Aware Iterative Resource Insertion

    基准电路 布线区域宽度
    文献[15] 文献[17] AIRI(本文)
    RR0 20 20 20
    RR1 40 34 37
    RR2 46 40 37
    RR3 54 49 49
    RR4 108 79 75
    RR5 96 75 73
    RR6 28 28 29
    Newb1 97 78 76
    Newb2 103 82 80
    Newb3 54 50 48
    Newb4 49 39 36
    Newb5 102 82 76
    比率 1.25 1.03 1.00
    下载: 导出CSV

    表  4   阻塞感知的蜿蜒布线策略对比结果

    Table  4   Comparative Results of Strategies Based on Blocking Aware Snaking Routing

    基准电路 布线区域宽度
    文献[15] 文献[17] BASR(本文)
    RR0 20 20 20
    RR1 40 34 34
    RR2 46 40 40
    RR3 54 49 46
    RR4 108 79 75
    RR5 96 75 75
    RR6 28 28 27
    Newb1 97 78 76
    Newb2 103 82 78
    Newb3 54 50 47
    Newb4 49 39 35
    Newb5 102 82 75
    比率 1.27 1.04 1.00
    下载: 导出CSV

    表  5   多端线网布线结果对比

    Table  5   Comparison of Routing Results for Multi-Terminal Nets

    基准电路 布线区域宽度
    文献[15] 文献[17] LMRouter(本文)
    RR0 20 20 20
    RR1 40 34 35
    RR2 46 40 39
    RR3 54 49 45
    RR4 108 79 72
    RR5 96 75 69
    RR6 28 28 26
    Newb1 97 78 72
    Newb2 103 82 77
    Newb3 54 50 45
    Newb4 49 39 33
    Newb5 102 82 73
    比率 1.31 1.08 1.00
    下载: 导出CSV

    表  6   单端线网布线结果对比

    Table  6   Comparison of Routing Results for Single-Terminal Nets

    连接数量/
    布线区域高度
    最大延长长度/
    平均延长长度
    布线区域宽度
    文献[15]文献[17]LMRouter(本文)
    15/20043/105141414
    15/20044/122141614
    15/308/26161614
    15/3018/79222220
    25/5012/46222321
    25/5016/51242321
    40/8016/49282826
    40/8019/56303228
    40/20040/168282927
    40/20042/182302927
    50/10023/99423935
    50/10025/111433937
    比率1.101.081.00
    下载: 导出CSV
  • [1] 何小威,乐大珩,郭维,等. 高性能自研处理器物理设计频率提升方法[J],计算机研究与发展2024,61(6):1429−1435

    He Xiaowei, Yue Daheng, Guo Wei, et al. Promoting frequency method for our own high performance processor physical design[J]. Journal of Computer Research and Development, 2024, 61(6): 1429−1435 (in Chinese)

    [2]

    Sato R, Hatanaka Y, Ando Y, et al. High-speed operation of random access-memory embedded microprocessor with minimal instruction set architecture based on rapid single-flux-quantum logic[J]. IEEE Transactions on Applied Superconductivity, 2017, 27(4): 1−5 doi: 10.1109/TASC.2017.2684059

    [3]

    Castellanos-Beltran M A, Olaya D I, Sirois A J, et al. Single-flux-quantum multiplier circuits for synthesizing gigahertz waveforms with quantum-based accuracy[J]. IEEE Transactions on Applied Superconductivity, 2021, 31(3): 1−9

    [4]

    Ando Y, Sato R, Tanaka M, et al. Design and demonstration of an 8-bit bit-serial RSFQ microprocessor: CORE e4[J]. IEEE Transactions on Applied Superconductivity, 2016, 26(5): 1−5

    [5]

    Fu Rongliang, Huang Junying, Wu Haibin, et al. JBNN: A hardware design for binarized neural networks using single-flux-quantum circuits[J]. IEEE Transactions on Computers, 2022, 71(12): 3203−3214

    [6]

    Obata K, Takagi K, Takagi N. A clock scheduling algorithm for high-throughput RSFQ digital circuits[J]. IEICE Transactions on Fundamentals, 2008, 91(12): 3772−3782

    [7]

    Chen W, Rylyakov A V, Patel V, et al. Rapid single-flux-quantum T-flip flop operating up to 770 GHz[J]. IEEE Transactions on Applied Superconductivity, 1999, 9(2): 3212−3215 doi: 10.1109/77.783712

    [8]

    Katam N, Shafaei A, Pedram M. Design of complex rapid single-flux-quantum cells with application to logic synthesis[C/OL]// Proc of the 16th Int Superconductive Electronics Conf. Piscataway, NJ: IEEE, 2017[2024-08-17]. https://ieeexplore.ieee.org/abstract/document/8314236

    [9]

    Kameda Y, Yorozu S, Hashimoto Y. A new design methodology for single-flux-quantum (SFQ) logic circuits using passive-transmission-line (PTL) wiring[J]. IEEE Transactions on Applied Superconductivity, 2017, 17(2): 508−511

    [10]

    Schindler L, Roux P l, Fourie C J. Impedance matching of passive transmission line receivers to improve reflections between RSFQ logic cells[J]. IEEE Transactions on Applied Superconductivity, 2020, 30(2): 1−7

    [11]

    Hashimoto Y, Yorozu S, Kameda Y, et al. Development of passive interconnection technology for SFQ circuits[J]. IEICE Transactions on Electronics, 2005, 88(2): 198−207

    [12]

    Ortlepp T, Uhlmann F H. Impedance matching of microstrip inductors in digital superconductive electronics[J]. IEEE Transactions on Applied Superconductivity, 2009, 19(3): 644−648 doi: 10.1109/TASC.2009.2019284

    [13]

    Jabbari T, Krylov G, Whiteley S, et al. Repeater insertion in SFQ interconnect[J]. IEEE Transactions on Applied Superconductivity, 2020, 30(8): 1−8

    [14]

    Tanaka M, OBATA K, lto Y, et al. Automated passive-transmission-line routing tool for single-flux-quantum circuits based on A* algorithm[J]. IEICE Transactions on Electronics, 2010, 93(4): 435−439

    [15]

    Kito N, Takagi K, Takagi N. Automatic wire-routing of SFQ digital circuits considering wire-length matching[J]. IEEE Transactions on Applied Superconductivity, 2016, 26(3): 1−5

    [16]

    Kito N, Takagi K, Takagi N. A fast wire-routing method and an automatic layout tool for RSFQ digital circuits considering wirelength matching[J]. IEEE Transactions on Applied Superconductivity, 2018, 28(4): 1−5

    [17]

    Kou Mingyang, Cheng Peiyi, Zeng Jun, et al, Splitter-aware multiterminal routing with length-matching constraint for RSFQ circuits[J]. IEEE Transactions on Computer-Aided Design of Integrated Circuits and Systems, 2021, 40(11): 2251−2264

    [18]

    Kitamura K, Takagi K, Takagi N. A two-step routing method with wire length budgeting for PTL routing of SFQ logic circuits[J]. Journal of Physics: Conference Series, 2020, 1590(1): 012043

    [19]

    Yan Jintai. Length-matching-constrained region routing in rapid single-flux-quantum circuits[J]. IEEE Transactions on Computer-Aided Design of Integrated Circuits and Systems, 2020, 40(5): 945−956

    [20]

    Yan Jintai. Via-minimization-oriented region routing under length-matching constraints in rapid single-flux-quantum circuits[J]. IEEE Transactions on Very Large Scale Integration Systems, 2021, 29(6): 1257−1270 doi: 10.1109/TVLSI.2021.3059786

    [21]

    Lin Tingru, Edwards T, Pedram M. qGDR: A via-minimization-oriented routing tool for large-scale superconductive single-flux-quantum circuits[J]. IEEE Transactions on Applied Superconductivity, 2019, 29(7): 1−12

    [22]

    Lin Tingru, Pedram M. Reducing the maximum length of connections in single-flux-quantum circuits during routing[C/OL]// Proc of IEEE Int Superconductive Electronics Conf. Piscataway, NJ: IEEE, 2019[2024-08-16]. https://ieeexplore.ieee.org/abstract/document/8990897

    [23]

    Oshimura T Y, Kuh E S. Efficient algorithms for channel routing[J]. IEEE Transactions on Computer-Aided Design of Integrated Circuits and Systems, 1982, 1(1): 25−35 doi: 10.1109/TCAD.1982.1269993

  • 期刊类型引用(1)

    1. 李继国,方淳. 基于SM9的指定验证者聚合签名方案. 网络与信息安全学报. 2024(04): 63-71 . 百度学术

    其他类型引用(0)

图(11)  /  表(6)
计量
  • 文章访问数:  50
  • HTML全文浏览量:  7
  • PDF下载量:  13
  • 被引次数: 1
出版历程
  • 收稿日期:  2024-02-01
  • 修回日期:  2024-10-15
  • 录用日期:  2024-11-12
  • 网络出版日期:  2024-11-18
  • 刊出日期:  2025-04-30

目录

/

返回文章
返回