-
摘要:
在指纹法的定位中,指纹特征和定位模型是影响定位精度的2个关键因素. 在指纹特征的选取方面,可见光强度稳定性较高,但位置特征区分度低;无线信号强度区分度较高,但波动性较强. 在定位模型的构建方面,基于卷积神经网络(convolutional neural network, CNN)的定位模型在特征提取时不能有效地突出重要特征. 针对上述问题,提出一种基于ECA-CNN的混合指纹室内定位方法(hybrid fingerprint indoor localization method based on ECA-CNN, ECACon-HF). 首先,利用可见光强度和低功耗蓝牙(Bluetooth low energy, BLE)接收信号强度指示(received signal strength indication, RSSI)来构建混合指纹,降低BLE指纹不稳定的影响,并增强不同位置之间的区分度. 同时,基于高效通道注意力(efficient channel attention , ECA)模块改进CNN定位模型,ECA能够通过跨通道交互策略自适应地提取指纹中的重要信息,抑制指纹中的环境干扰,增强混合指纹特征表达能力,更有效地利用混合指纹优势. 实验结果显示,ECACon-HF在构建的混合指纹库上可以达到0.316 m的定位精度,高于在单一指纹上的精度;并且基于同一指纹库,ECACon-HF相比其他室内定位方法,定位精度具有明显优势.
Abstract:Fingerprint features and localization model are two key factors affecting the localization accuracy in fingerprint localization methods. In terms of fingerprint feature, the stability of visible light intensity is high, but the discrimination of position features is low. The radio signal strength is highly distinguishable, but has strong volatility. Meanwhile, the localization models based on convolutional neural network (CNN) can not effectively highlight important features during feature extraction. In view of the above problems, a hybrid fingerprint indoor localization method based on ECA-CNN (ECACon-HF) is proposed in this paper. First, we use visible light intensity and received signal strength indication (RSSI) of Bluetooth low energy (BLE) to construct hybrid fingerprints, reduce the influence of instability of BLE fingerprints, and enhance the discrimination between different positions. Meanwhile, the CNN localization model is improved by the efficient channel attention (ECA). ECA can adaptively extract important information from fingerprints through cross-channel interaction strategies, suppress environmental interference in fingerprints, enhance the expression ability of hybrid fingerprint features, and make more effective use of the advantages of hybrid fingerprints. The experimental results show that ECACon-HF proposed in this paper achieves the localization precision of 0.316 m, higher accuracy than on the single fingerprint. Meanwhile, based on the same fingerprint database, the proposed method outperforms other related indoor localization methods.
-
随着无线传感器网络、移动智能终端的迅速发展,基于室内位置服务的需求越来越多,例如矿井施工人员位置发现、化工厂危险源检测、智能机器人服务、停车场寻车等. 但目前室内定位方法仍存在部署难度大、设备成本高以及定位精度低等问题,无法满足上述室内定位需求.
按照定位原理划分,目前室内定位技术可以分为基于测距的定位和基于指纹的定位两大类. 基于测距的定位方法[1]根据信号强度与传播距离之间的数学模型计算接入点与目标点之间的距离,再使用几何方法计算目标点位置. 但由于室内布局的复杂多变,人员活动频繁,信号强度与传播距离数学模型的准确度低,导致基于测距的定位方法精度较低. 在基于指纹的定位方法中,指纹特征和定位模型是影响定位精度的2个关键因素.
基于指纹的定位方法中常用低功耗蓝牙(Bluetooth low energy, BLE)[2]、Wi-Fi[3]和ZigBee[4]等无线信号,其中接收信号强度指示(received signal strength indication, RSSI)和信道状态信息(channel state information, CSI)常被用来作为位置指纹特征.CSI采集对硬件要求较高,且数据处理较为复杂,但数据维度高,能够表征较多的位置信息;RSSI因其易采集、易处理的特性被广泛应用,但波动性强,易受环境影响[5]. 同时有文献采用可见光[6]、地磁[7]以及温湿度[8]等传感信息作为位置指纹特征来进行定位. 文献[6]使用可见光通信进行定位,虽然该方法具有较高的定位精度,但可见光通信需要专门的驱动装置对光信号进行调制,并需要光电二极管接收光信号,设备成本较高. 文献[7]使用地磁进行定位,将地磁序列中的时间特征融入到位置指纹中来弥补空间特征差异性小的不足,地磁信号虽然稳定性较高,但是不同位置之间的地磁信号的空间特征区分度不高,采用指纹法进行定位还需利用地磁序列中的时间相关性,增加了算法时间复杂度. 文献[8]在进行指纹法的定位时使用了温湿度信息,但温湿度信息只是对无线信号接收信号强度(received signal strength, RSS)的补充,由于周围环境对温湿度信息的影响比较大,单独的温湿度信息无法用于指纹法定位. 文献[5-8]研究表明,指纹法的定位中,作为位置特征的无线信号强度不稳定,单一采用无线信号强度作为指纹特征进行室内定位的精确度不高;传感信息具有稳定的优势,能够弥补无线信号的不足,达到较高的定位精度,但是单一的传感信息处理过程复杂,增加了设备复杂度或时间复杂度,并且传感信息的位置差异性不强,各位置之间指纹特征区分度不够.
针对上述单一指纹的问题,有研究使用多种类型的指纹来构建混合特征指纹进行定位[9-11]. 通过研究发现,混合指纹能够提高数据维度和位置差异性,使用多个指纹联合进行定位能够在一定程度上提高定位精度,但单一采用Wi-Fi,BLE等无线信号进行联合或单一采用可见光、地磁场等传感信息进行联合,其波动性较大或特征差异性不强对定位精度造成的影响难以得到改善.
定位模型的构建方法是指纹定位方法中影响定位精度的另一个重要因素.k最近邻(k-nearest neighbor, KNN)算法[12-14]是一种有效且常用的指纹匹配方法,该算法选取与目标点之间指纹欧氏距离最近的k个参考点,将这k个参考点坐标的平均值作为目标点坐标,即实现了指纹定位. 但由于KNN算法没有考虑目标点与不同参考点之间指纹欧氏距离会对结果的影响程度不同,造成定位精度的不准确,因此使用KNN方法的室内定位技术定位精度较低.
加权k最近邻(weighted k-nearest neighbor, WKNN)算法[15]对KNN算法存在的问题进行了改进,定位精度相比于KNN有一定程度的提升.WKNN算法根据参考点与目标点之间的指纹欧氏距离对选出的k个参考点赋予了不同的权值,解决了KNN方法中存在的问题. 但当采用无线信号作为指纹特征时,无线信号的不稳定性使得该权值不能很好地反映参考点与目标点之间的匹配程度,因此对定位精度产生较大的影响[16-17].
针对WKNN算法的问题,有研究使用卷积神经网络(convolutional neural network, CNN)来学习参考点与目标点的指纹特征[18-20],得益于CNN在特征分类方面具有很好的效果,使用CNN能够更加精准地对目标点与参考点进行匹配,相比于WKNN在精度方面有所提高. 文献[18]使用Wi-Fi信号强度作为指纹特征,采用CNN进行指纹匹配,平均定位误差为1.05 m.文献[19]使用CSI的时频矩阵作为定位特征,采用CNN对指纹特征进行匹配,将定位建模成一个分类问题,平均定位误差为1.3654 m.文献[20]采用深度CNN对Wi-Fi CSI图像进行匹配,得到目标点位置,在实验室环境中的平均定位误差为1.7882 m.但是现有CNN会对每个通道赋予相同的权重,不能有效地突出重要特征,使最终提取的特征表达能力不强,并且对于混合指纹特征,不能很好地捕获混合特征之间的相互依赖关系,无法最大限度地发挥混合指纹的优势,降低后续指纹特征匹配的准确度,进而影响定位精度.
本文针对上述问题,提出一种基于ECA-CNN的混合指纹室内定位方法(hybrid fingerprint indoor localization method based on ECA-CNN, ECACon-HF),主要贡献有3点:
1) 使用可见光强度和BLE RSSI构建混合特征指纹,降低BLE指纹不稳定对定位精度的影响,并且增强不同位置指纹特征的区分度,提升指纹匹配的正确率,进而提高定位精度. 本文采用的可见光强度无需使用可见光通信技术获取,大大降低了设备复杂度.
2) 在CNN中引入高效通道注意力(efficient channel attention, ECA)模块,构建ECA-CNN定位模型,将目标点与各参考点进行匹配.ECA模块可以自适应地提取指纹中的重要信息,增强特征表达能力,抑制环境干扰等无效特征;并且ECA模块通过跨通道交互策略显式建模通道之间的相互依赖关系,捕获沿通道方向信息量最大的特征表示,融合可见光指纹与BLE指纹中的位置关联性,充分发挥混合指纹的优势,提高指纹特征匹配的正确率.
3) 搭建实验环境,构建可见光强度和BLE RSSI混合特征指纹数据集,并在该数据集上验证了本文所提方法ECACon-HF的有效性. 实验结果表明,ECACon-HF在混合指纹上的定位精度高于在单一指纹上的定位精度,并且ECACon-HF相比其他室内定位方法,定位精度具有明显优势.
1. 相关工作
在使用混合特征指纹方面,文献[9]使用Wi-Fi信号的RSS和CSI混合特征构建指纹,并使用克拉美-罗下界(Cramer-Rao lower bound, CRLB)证明了增加指纹类型能够提高定位精度,实验结果表明使用混合特征比使用单一特征定位精度提高了20.3%. 文献[10]使用地磁场和光强的混合指纹,并使用深度长短期记忆网络进行指纹匹配,在走廊和实验室环境下分别做了实验,实验室环境的精度大于走廊环境的精度,该文献还做了仅使用地磁数据的定位实验,证明了使用混合指纹的定位精度高于使用单一指纹的定位精度. 但是不同位置之间可见光和地磁场的指纹特征区分度不够,定位精度未能达到1 m以内,并且该文献需要处理信号序列中的时间相关性,增加了时间复杂度. 文献[11]提出了一种结合BLE和Wi-Fi的定位方法,并且在KNN的基础上提出了一种新的定位算法,称为i-KNN. i-KNN算法首先根据BLE设备与Wi-Fi RSS的距离对初始Wi-Fi数据集进行过滤,然后再使用KNN算法对过滤后的Wi-Fi指纹进行匹配,该文献并没有使用Wi-Fi与BLE构建混合特征指纹,并且Wi-Fi和BLE信号稳定性较差的问题仍然没有得到解决,该文方法的定位误差仍然在2 m以上. 文献[21]提出Magicol系统,将磁场强度和Wi-Fi RSSI结合起来构建指纹图用于定位和跟踪. 但是由于使用KNN方法进行指纹匹配会存在较大误差以及Wi-Fi信号的不稳定,该文方法中90%的定位误差在3 m以上. 文献[22]提出了一种磁场与可见光混合指纹图和一种鲁棒的扩展粒子群优化算法,但是80%的误差仅在1.7 m以内.
在使用CNN进行在线指纹匹配方面,文献[18]实现基于CNN的室内定位方法,该文献使用Wi-Fi RSSI指纹,并且使用一种基于连续小波变换的特征提取方法,平均定位误差为1.05 m. 文献[19]提出了第1个基于CNN的Wi-Fi定位算法ConFi,该文献中CSI组织成一个类似于图像的时频矩阵,并用作定位的特征,ConFi将定位建模为一个分类问题,平均定位误差为1.365 4 m. 文献[20]提出了第1个采用深度CNN进行室内定位的系统CiFi,该系统从5 GHz Wi-Fi中提取CSI的相位数据用于估计到达角,创建估计到达角图像来训练深度CNN,平均定位误差为1.788 2 m. 文献[23]提出了一种基于CNN的Wi-Fi指纹识别方法,以解决基于深度神经网络的方法对接收信号波动(由多径引起)的敏感性,该文献中的实验证明了该方法的性能优于基于深度神经网络的方法. 文献[24]使用地磁场构建指纹数据库,并使用CNN计算位置,CNN将用户收集的地磁场数据与数据库匹配,并且设计了一种投票机制来组合来自多个CNN的预测,并最终估计用户的位置. 文献[25]使用CSI作为指纹图像来表达Wi-Fi信号的空间和时间特征,同时,提出了一种基于CNN和双因子增强变分贝叶斯自适应卡尔曼滤波器的室内定位算法,在复杂的室内环境下,利用时变测量噪声和过程噪声实现精确的位置估计. 文献[26]通过计算来自重要贡献Wi-Fi接入点的不同RSSI比率构建比率指纹,然后将比率指纹和RSSI相结合构建混合指纹,以增强室内环境特征的表达. 此外,还构建了一个CNN体系结构,用于从复杂的混合指纹中学习室内位置的重要特征. 使用CNN进行指纹匹配的方法仍然存在对指纹中的重要特征表达不突出的问题,导致指纹匹配的准确度降低,影响定位精度.
ECA模块可以应用于特征分类、目标检测、实例分割等领域. 文献[27]提出了一种新的高效通道注意力深度密集卷积神经网络用于对胃镜图像食管疾病进行分类,使用ECA加强网络中的特征传播,以突出和提取与不同类型病变之间细微差异相关的特征. 文献[28]提出了一种有效用于小脑分割的通道注意U-Net算法,该算法加入ECA模块增强特征表示,抑制无效特征,并在不影响性能的前提下,大大减少了模型参数的数量. 文献[29]提出一种多目标跟踪方法,在主干网络中引入ECA模块,可以自适应地提取图像中的重要信息,提高目标检测的准确度.
2. ECACon-HF方法
本文提出的方法ECACon-HF,首先利用可见光强度和BLE RSSI构建混合指纹,降低BLE指纹不稳定的影响,并解决单一指纹位置特征区分度低的问题;同时,在CNN中引入ECA模块,构建ECA-CNN定位模型,增强混合指纹特征表达能力,更有效地利用混合指纹优势,从而提高指纹特征匹配的正确率. ECACon-HF的总体框架如图1所示.
在指纹融合阶段,利用可见光强度与BLE RSSI融合构建混合指纹增强不同位置之间的特征差异性. 本文将可见光强度与BLE RSSI融合成2通道的混合指纹,以便ECA模块能够有效地捕获通道之间的相互依赖关系,提取可见光指纹与BLE指纹中的位置关联性,充分发挥混合指纹的优势. 在目标点与参考点匹配阶段,通过训练好的ECA-CNN模型得到与目标点最匹配的k个参考点,对与目标点最匹配的k个参考点坐标进行加权平均,计算出目标点坐标.
2.1 可见光强度与BLE RSSI的混合特征指纹
可见光强度区别于可见光通信信号,它具有稳定性高且特征易采集的特性,但不同位置之间的特征区分度不强.BLE RSSI特征相比于CSI特征具有数据易处理和易采集的特性,同时在不同位置之间具有较高的区分度,但BLE信号易受环境影响,具有较强的波动性. 本文提出使用可见光强度和BLE RSSI构建混合特征指纹. 一方面,在混合指纹当中,有效利用可见光强度的稳定性,可以弥补BLE RSSI值波动对定位精度造成的影响;另一方面,通过使用混合特征可以增加特征维度,增强不同位置之间的特征差异性,从而改善仅使用单一可见光强度带来的不同位置之间区分度低的问题,进而提高CNN模型的定位精度,减小定位误差. 具体指纹融合方法为:
1)将某位置的可见光光照强度数据表示为(l1, l2, …, lα),其中α为LED灯的个数,li表示第i个LED灯在该位置处的光强度,i=1, 2, …, α.
2)将该位置的BLE RSSI数据表示为(b1, b2, …, bβ),其中β为BLE信标的个数,bj表示第j个BLE信标在该位置处的信号强度,j=1, 2, …, β.
3)利用同一位置下采集到的可见光光照强度数据与BLE RSSI数据融合构建混合指纹F,F表示为:
{\boldsymbol{F}} = \left( {\left( {{l_1},{l_2},…,{l_\alpha }} \right)} \right.,\left. {\left( {{b_1},{b_2},…,{b_\beta }} \right)} \right) . (1) 我们将可见光强度与BLE RSSI融合成2通道混合指纹数据,这样能够通过跨通道交互策略更加有效地获取通道之间的相互依赖关系,捕获沿通道方向信息量最大的特征表示,获取可见光指纹与BLE指纹中的位置关联性,充分发挥混合指纹的优势,使提取出来的特征具有更强的表达能力.
为了评估混合指纹的稳定性,我们在实验场地采集了20个位置的指纹数据,即BLE RSSI数据和可见光强度数据,每个位置的样本数为10. 同时根据ECACon-HF方法构建BLE RSSI和可见光强度的混合指纹数据. 我们首先对每个样本中的数据取平均值,再计算每个位置10个样本平均值的方差,用于表示各位置指纹的稳定性. 从图2可以看出,由于可见光强度具有很高的稳定性,每个位置可见光强度指纹的方差都是最小的. 每个位置混合指纹的方差都要小于BLE指纹的方差,代表混合指纹比BLE指纹稳定,这是因为可见光强度稳定性较高,将其与BLE RSSI混合能够使混合指纹的稳定性整体高于BLE指纹.
为了评估混合指纹的位置特征差异性,定义矩阵D,D中的元素为\xi 个不同位置之间指纹的欧氏距离,D的表示如式(2)所示.
{\boldsymbol{D}} = \left( {\begin{array}{*{20}{c}} {{d_{11}}}& \cdots& {{d_{1\xi }}} \\ \vdots &{\quad} &\vdots \\ {{d_{\xi 1}}} &\cdots& {{d_{\xi \xi }}} \end{array} } \right) , (2) 其中dij表示位置i与位置j之间指纹的欧氏距离.
我们同样使用这20个位置的指纹数据,通过式(2)分别针对BLE RSSI指纹、可见光强度指纹与BLE RSSI和可见光强度的混合指纹构建矩阵D的热力图,结果如图3所示. 从图3(a)可以看出,部分位置之间具有较高的特征差异性,说明BLE RSSI指纹具有一定的特征区分度;而图3(b)中不同位置之间的特征差异性较小,说明可见光强度指纹特征区分度不够明显. 从图3(c)中可以看出,BLE RSSI和可见光强度的混合指纹在大部分位置之间具有较大的差异性,只有很少部分的位置之间差异性较小,混合指纹的特征区分度要大于BLE RSSI指纹和可见光强度指纹. 因此,使用混合指纹能够增加不同位置之间的特征差异性.
2.2 基于ECA-CNN的混合指纹定位模型
2.2.1 ECA模块
ECA作为通道注意力的一种,是对挤压与激发网络(squeeze-and-excitation networks, SENet)的改进. ECA使用一种不降维的局部跨通道交互策略,该策略通过快速1维卷积有效实现,在保证性能的同时显著降低模型的复杂度[30].
ECA的结构如图4所示. 首先,使用全局平均池化(global average pooling, GAP)获得聚合特征. 然后使用卷积核大小为K的1维卷积实现局部跨通道交互,这里K的大小决定跨通道交互的覆盖范围,K的大小是由通道数C自适应确定的,K与C之间存在一个映射关系,如式(3)和式(4)所示.
C = \varPhi (K) = {2^{yK - b}} , (3) K = \varPsi (C) = \left| {\frac{{{\mathrm{lb}} C}}{\gamma } + \frac{b}{\gamma }} \right|_{{\mathrm{odd}}} , (4) 其中γ与b为自定义参数,分别设置为γ = 2和b = 1,|\cdot|_{\mathrm{odd}}表示距离最近的奇数. 最后通过Sigmoid函数得到通道权重,将生成的通道权重与输入特征逐元素相乘得到带有注意力的特征.
2.2.2 ECA-CNN定位模型
可见光强度和BLE RSSI的混合指纹融合了可见光与BLE的优势,比如混合指纹的稳定性更好、特征区分度更高,同时也会带有二者的一些劣势,比如BLE信号易受干扰而不稳定,会使混合指纹中带有环境干扰等无效特征,传统CNN在指纹匹配阶段无法对这些无效特征进行抑制,同时也不能对混合指纹的位置特征相关性进行表示. 针对这一问题,本文将ECA模块引入到CNN中,构建ECA-CNN定位模型,如图5所示.
我们将2通道可见光强度和BLE RSSI的混合指纹作为ECA-CNN模型的输入,该模型包含4层卷积层,卷积核的大小为5×5,每个卷积层使用修正线性单元(rectified linear unit, ReLU)作为激活函数,在每个卷积层后面添加ECA模块,为每一层卷积层提取的特征添加通道注意力,2通道混合指纹经过4层卷积之后通道数分别变为16,32,64,128. 使用一层全连接层作为模型的输出层,并将全连接层的输出结果使用Softmax函数处理,得到目标点与各参考点的匹配概率. Softmax函数输出第i个参考点与目标点之间的匹配概率Pi,如式(5)所示.
{P_i} = \dfrac{{{{\mathrm{e}}^{{z_i}}}}}{{\sum\limits_{n = 0}^R {{{\mathrm{e}}^{{z_n}}}} }} , (5) 其中R为参考点个数,zi为全连接层中第i个参考点处的输出. 对于ECA-CNN模型的训练,使用Adam优化器以及交叉熵损失函数,选出与目标点最匹配的k个参考点r1,r2,…,rk,这些参考点与目标点之间的匹配概率分别为P1,P2,…,Pk,分别计算这k个参考点的权值,第μ个参考点的权值Wμ的计算如式(6)所示.
{W_\mu } = \frac{{{P_\mu }}}{{\sum\limits_{j = 0}^k {{P_j}} }} . (6) 根据上述k个参考点,计算目标点的位置坐标,如式(7)所示.
\begin{aligned} & x = \sum\limits_{j = 0}^{k} {{W_j}{x_j^{'}}} ,\\&y = \sum\limits_{j = 0}^k {{W_j}{y_j^{'}}} , \end{aligned} (7) 其中x_j^{'}与y_j^{'}为第j个参考点的坐标值. 使用计算得到的目标点坐标(x, y)与目标点真实坐标(xδ, yδ)的欧氏距离来评估该点的定位误差,误差计算如式(8)所示:
err = {\left| {(x,y) - ({x_\delta },{y_\delta })} \right|_2} = \sqrt {{{(x - {x_\delta })}^2} + {{(y - {y_\delta })}^2}} . (8) ECA模块能够增强指纹特征的表达能力,自适应地提取混合指纹中的重要信息,捕获沿通道方向信息量最大的特征. 基于此,我们将可见光强度与BLE RSSI分通道融合成2通道混合指纹,因此能够更有效地提取可见光强度指纹与BLE RSSI指纹中的位置关联性,充分发挥混合指纹的优势,提高指纹特征匹配的正确率,进而提高定位精度.
2.3 ECACon-HF方法总体流程
ECACon-HF的工作流程如图6所示,该流程包括离线阶段和在线阶段.
1)在离线阶段,从待定位场地采集参考点处可见光强度和BLE RSSI数据构建混合指纹,并使用参考点坐标对混合指纹进行标记,将ECA模块加入CNN中构建ECA-CNN定位模型,再用标记好的混合指纹训练ECA-CNN模型.
2)在在线阶段,使用离线阶段训练的ECA-CNN模型对目标点与参考点进行匹配. 首先采集目标点的可见光强度和BLE RSSI数据,可见光强度与BLE RSSI数据融合构建目标点的混合指纹,将混合指纹输入离线阶段训练的ECA-CNN模型得到与目标点最匹配的一组参考点,对这组参考点的坐标进行加权平均得到目标点坐标.
算法1给出了ECACon-HF的伪代码.
算法1. ECACon-HF.
1)离线阶段
输入:根据2.1节构建的参考点可见光强度与BLE RSSI混合指纹F.
① 通过卷积操作提取指纹特征;
② 通过ECA模块为提取的指纹特征计算通道权重,对特征进行通道加权得到带有注意力的特征;
③ 获得训练好的ECA-CNN定位模型.
2)在线阶段
输入:根据本文2.1节构建的目标点可见光强度与BLE RSSI混合指纹F;
输出:目标点坐标(x, y) .
① ECA-CNN定位模型得到目标点与各参考点的匹配程度,z=cnn_model(F);
② Softmax函数将匹配程度转化成匹配概率,P = Softmax(z);
③ 选择与目标点之间匹配概率最大的前k个参考点r1,r2,…,rk;
④ 根据式(6)计算这k个参考点的权值W1,W2,…,Wk;
⑤ 根据式(7)和式(8)计算目标点坐标(x, y) 和该目标点处的定位误差err.
3. 实 验
3.1 实验环境
为了评估本文所提出的定位方法的性能,如图7所示,在某研讨室进行了数据采集和定位实验. 选择房间内4.8 m×4 m大小的区域作为定位区域,在房顶布置6个LED灯和4个BLE节点,房间高2.7 m. 如图8所示,在定位区域选取20个参考点,参考点之间间隔1 m,选取15个测试点,测试点与参考点不重合.
使用标智GM1040B照度计测量可见光强度,使用iPhone 11手机测量BLE RSSI.对于每一个参考点,采集100个样本数据;对于每一个测试点,采集40个样本数据.
3.2 实验结果与分析
3.2.1 混合指纹与单一指纹定位结果对比
基于3.1节所述的实验环境中获取的参考点与测试点的测量数据,分别构建单一可见光强度指纹库、单一BLE RSSI指纹库和可见光强度与BLE RSSI的混合指纹库. 可见光强度数据是在无环境光干扰的情况下采集的,考虑到实际情况中可见光强度容易受日照、时间等因素影响,本文通过给可见光强度增加高斯噪声,构建了有干扰的单一可见光强度指纹库以及有干扰的可见光强度与BLE RSSI的混合指纹库,进行实验.
在可见光强度无干扰的情况下,采用ECACon-HF方法分别基于单一可见光强度指纹、单一BLE RSSI指纹、可见光强度与BLE RSSI的混合指纹进行定位,3组实验的累计误差分布对比如图9所示. 由实验结果可知,使用单一BLE RSSI指纹时,仅有35%的定位误差小于等于1 m;采用单一可见光强度指纹和混合指纹时均能100%达到定位误差小于等于1 m;而采用单一可见光强度指纹时,有81%定位误差小于等于0.3 m,使用混合指纹时,85%的定位误差小于等于0.3 m. 混合指纹定位精度整体高于单一可见光强度指纹.
表1为在可见光强度无干扰的情况下使用3种指纹时的平均定位误差和最大定位的误差的对比. 从实验结果可以看出,使用混合指纹时平均定位误差为0.316 m,相比于单一使用可见光强度指纹时的0.325 m和单一使用BLE RSSI指纹时的1.509 m,分别减小了3%和 79%. 使用混合指纹时最大定位误差为0.705 m,其值与使用可见光指纹时的基本一致,相比于单一使用BLE RSSI指纹时的4.321 m减小了83%.
表 1 无干扰情况下不同指纹定位误差对比Table 1. Comparison of Different Fingerprint Localization Errors Without Interferencem 指纹类型 平均误差 最大误差 BLE RSSI指纹 1.509 4.321 可见光强度指纹(无干扰) 0.325 0.702 混合指纹(无干扰)(本文) 0.316 0.705 在可见光强度有干扰的情况下,我们进行了混合指纹与单一指纹的对比实验,实验结果如图10所示. 从图10可知,混合指纹相比于单一指纹的定位结果差别较大,优势更加明显,使用混合指纹时能100%达到定位误差小于等于1 m,而使用单一可见光指纹时仅有89%的定位误差在1 m以下;在高精度方面,使用混合指纹67%的定位误差都小于等于0.3 m,而使用单一可见光指纹仅有49%的定位误差小于等于0.3 m.
有干扰条件下的不同指纹定位实验平均定位误差和最大定位误差如表2所示. 从实验结果可以看出,使用混合指纹时平均定位误差为0.406 m,相比于单一使用可见光强度指纹时的0.547 m和使用BLE RSSI指纹时的1.509 m,分别减小了26%和73%. 使用混合指纹时最大定位误差为0.824 m,相比于使用可见光强度指纹时的1.461 m和使用BLE RSSI指纹时的4.321 m分别减小了44%和81%.
表 2 有干扰下不同指纹定位误差对比Table 2. Comparison of Different Fingerprint Localization Errors with Interferencem 指纹类型 平均误差 最大误差 BLE RSSI指纹 1.509 4.321 可见光强度指纹(有干扰) 0.547 1.461 混合指纹(有干扰)(本文) 0.406 0.824 综上所述,在可见光强度无干扰的情况下,可见光强度较为稳定,从而导致定位模型在提取混合指纹特征时BLE RSSI特征所产生的影响很小,最终混合指纹的定位结果具有优势,但和单一可见光强度指纹的定位结果接近. 在可见光强度有干扰的情况下,基于指纹作用的互补特性,混合指纹的定位优势更为明显,结果均优于单一指纹的定位效果.
为了验证使用混合指纹是否会增加计算复杂度,导致定位延迟增大,我们给出了使用不同类型的指纹在无干扰情况下进行定位的执行时间,如表3所示. 可以看出使用混合指纹时的执行时间和使用单一指纹时的执行时间相近,由此可以说明使用混合指纹不会导致计算复杂度大幅度增加.
表 3 不同指纹下的执行时间Table 3. Execution Time Under Different Fingerprintss 指纹类型 执行时间 BLE RSSI指纹 4.264 可见光强度指纹(无干扰) 4.281 混合指纹(无干扰)(本文) 4.283 3.2.2 模型参数对定位结果的影响
本节分别为ECA-CNN模型设置不同的参数进行试验. 本节及以后的实验中均采用无干扰的指纹数据. 首先比较不同的迭代次数对实验结果的影响,如表4所示,我们分别对比了迭代次数为100,200,300,400时的结果. 从实验结果中可以看到,迭代200次时定位误差最小,并且在迭代200次时模型的损失就可以降到最小,因此本文对ECA-CNN模型的训练选用200次迭代.
表 4 不同迭代次数的影响Table 4. Influence of Different Iterations迭代次数 平均误差/m 最大误差/m 100 0.363 1.131 200 0.316 0.705 300 0.332 0.803 400 0.361 0.824 注:加粗数字表示最优值. 此外,我们还做了对比实验,比较了不同的卷积核大小对实验结果的影响,如表5所示,我们分别将卷积核大小设置为2×2,2×3,2×5,2×6,3×3,5×5. 从实验结果中可以看出,卷积核大小为5×5时定位误差最小,并且5×5大小的卷积核能够使指纹数据的大小保持不变,因此本文将ECA-CNN模型的卷积核大小设置为5×5.
表 5 不同卷积核大小的影响Table 5. Influence of Different Convolution Kernel Sizes卷积核大小 平均误差/m 最大误差/m 2×2 0.359 0.821 2×3 0.398 0.824 2×5 0.386 0.824 2×6 0.355 0.823 3×3 0.350 0.824 5×5 0.316 0.705 注:加粗数字表示最优值. 最后,我们还比较了卷积层的数量对实验结果的影响,如表6所示,我们令卷积层的数量分别为2,3,4,5,6. 从实验结果可以看出,4层卷积层的定位误差最小,因此本文采用4层卷积层.
表 6 不同卷积层数量的影响Table 6. Influence of Different Number of Convolution Layers卷积层数量 平均误差/m 最大误差/m 2 0.342 0.822 3 0.340 0.823 4 0.316 0.705 5 0.358 0.955 6 0.363 0.824 注:加粗数字表示最优值. 3.2.3 网络模型对比
本节使用ECACon-HF分别与不引入注意力的CNN定位方法和引入自注意力的CNN定位方法进行比较.
首先,为了证明ECA模块的有效性,分别使用ECACon-HF与不引入注意力的CNN定位方法在混合指纹上进行了实验,实验结果如表7所示. ECACon-HF的平均定位误差和最大定位误差都要小于不引入注意力的CNN定位方法. 说明在CNN中引入ECA模块能够自适应地提取混合指纹中的重要信息,增强特征表达能力,抑制指纹中的环境干扰等无效特征. 并且能够通过跨通道交互策略捕获通道之间的相互依赖关系,更有效地提取可见光强度指纹与BLE RSSI指纹中的位置关联性,充分发挥混合指纹的优势,提高指纹特征匹配的正确率,进而提高定位精度.
表 7 ECACon-HF与CNN、引入自注意力的CNN对比Table 7. Comparison of ECACon-HF, CNN and CNN with Introducing Self Attentionm 对比模型 平均误差 最大误差 CNN 0.341 0.796 CNN+自注意力 0.357 0.823 ECACon-HF(本文) 0.316 0.705 其次,将ECACon-HF与引入自注意力的CNN定位方法进行对比,自注意力机制是注意力机制的改进,其减少了对外部信息的依赖,更擅长捕捉数据或特征的内部相关性. 实验结果如表7所示,由于将2种指纹混合后指纹内部的相关性不能很好地表示指纹的位置特征,而本文在CNN中引入ECA模块,并将可见光强度指纹与BLE RSSI指纹进行分通道混合,因此能有效提取可见光与BLE之间的位置关联性,充分发挥混合指纹的优势,因此ECACon-HF具有更高的定位精度.
3.2.4 不同方法定位精度对比
本节将ECACon-HF与其他定位方法进行对比,为了避免由于采用不同指纹特征对精度产生的影响,所有实验结果均基于本文构建的可见光强度和BLE RSSI混合指纹库进行测试统计.
首先将ECACon-HF与传统KNN方法、WKNN方法的定位结果进行对比,3种方法的误差累计分布如图11所示. 实验结果表明,KNN与WKNN 55%的误差小于等于1 m,而ECACon-HF测试误差均在1 m以内. 在高精度方面,KNN与WKNN都只有16%的误差小于等于0.3 m,与ECACon-HF 85%小于等于0.3 m的定位误差对比差距很大.ECACon-HF相比于KNN和WKNN定位精度都有很大的提升.
其次本文将ECACon-HF与其他基于CNN的室内定位方法进行对比. 基于本文构建的无干扰混合指纹库,分别采用ECACon-HF、文献[18]中的方法、ConFi方法[19]以及CiFi方法[20]对测试点进行定位误差统计,这4种方法的累计误差分布如图12所示. 实验结果表明,文献[18]、ConFi以及ConFi分别仅有83%,84%,87%的误差小于等于1 m,相比于ECACon-HF,没有达到100%的小于等于1 m的定位精度. 同时,ECACon-HF能够达到85%的定位误差小于等于0.3 m,而文献[18]、ConFi以及ConFi分别仅有49%,59%,53%的定位误差小于等于0.3 m. ECACon-HF的定位精度相比其他3种CNN定位方法,在定位精度方面提升显著.
表8为各定位方法在3种指纹上的平均误差和最大误差对比. ECACon-HF在混合指纹上的平均定位误差为0. 316 m, KNN和WKNN在混合指纹上的平均定位误差分别为1. 090 m和1. 089 m,ECACon-HF的平均定位误差相比于它们减小了71%. 不引入ECA模块的CNN定位方法平均定位误差为0. 341 m,ECACon-HF相比于它减少了7%. 文献[18]、ConFi和CiFi均基于本文所构建的混合指纹库,平均定位误差分别为0. 576 m,0. 569 m,0. 633 m,ECACon-HF的平均定位误差相比于这3种方法分别减少了46%,45%,51%. 在最大误差方面,ECACon-HF在混合指纹上的定位误差要明显小于其他方法. 由此可见,在混合指纹库上,ECACon-HF具有相对的鲁棒性.
表 8 各方法在3种指纹上的平均误差与最大误差对比Table 8. Comparison of Average Error and Maximum Error of Each Method on Three Fingerprintsm 对比方法 混合指纹 可见光强度指纹 BLE RSSI指纹 无干扰 有干扰 无干扰 有干扰 平均误差 最大误差 平均误差 最大误差 平均误差 最大误差 平均误差 最大误差 平均误差 最大误差 KNN 1.090 3.256 1.104 3.329 0.339 0.707 0.425 1.217 1.591 4.326 WKNN 1.089 3.261 1.103 3.326 0.339 0.707 0.425 1.217 1.599 4.343 ConFi 0.569 2.115 0.629 2.121 0.377 1.108 0.505 1.536 1.483 4.425 CiFi 0.633 2.113 0.660 2.121 0.402 0.825 0.513 1.437 1.497 4.040 文献[18]的方法 0.576 1.962 0.705 3.143 0.358 1.073 0.480 1.399 1.576 4.718 CNN 0.341 0.796 0.452 1.210 0.358 1.043 0.564 1.922 1.480 4.709 ECACon-HF(本文) 0.316 0.705 0.406 0.824 0.325 0.702 0.547 1.461 1.509 4.321 进一步分析表明,虽然ECACon-HF在无干扰情况下,单一可见光指纹和混合指纹的最大定位误差接近;但在有干扰的情况下,ECACon-HF对混合指纹处理后的最大误差仍控制在1 m以内,相比有干扰的单一可见光指纹,最大定位误差减小了44%. 同时,当可见光强度在有干扰的情况下,上述各方法的最大定位误差相比无干扰情况均有所增加. 其中定位精度较高的方法中,ECACon-HF的最大定位误差相比无干扰指纹增加了14.4%,而CNN方法增加了34.2%,文献[18]增加了37.6%;而在混合指纹上定位精度较低的KNN,WKNN,ConFi,CiFi等方法,由于对混合指纹特征不敏感,最大定位误差没有明显差异. 由此可以看出,指纹在受到干扰的影响下,对具有高定位精度的模型会产生较大影响,但ECACon-HF相比于其他方法对混合指纹的抗干扰处理具有明显优势.
综上所述,ECACon-HF针对混合指纹库的定位精度比单一指纹库更具优势. 同时,基于混合指纹库,ECACon-HF不论是相比于传统KNN与WKNN,还是其他基于CNN的室内定位方法,定位精度均得到了提升.
4. 结 论
本文提出一种基于ECA-CNN的混合指纹室内定位方法(ECACon-HF). 首先,利用可见光强度和BLE RSSI混合指纹有效降低了BLE指纹不稳定的影响,并增强了不同位置间的特征差异性. 其次,将ECA模块加入CNN中构建ECA-CNN定位模型,可以自适应地提取混合指纹中的重要信息,增强特征表达能力,抑制指纹中的环境干扰等无效特征,并且能够更有效地提取可见光强度指纹与BLE RSSI指纹中的位置关联性,充分发挥混合指纹的优势. 通过实验验证了所提方法的有效性,ECACon-HF在本文构建的混合指纹库上可以达到0.316 m的定位精度,高于单一指纹上的定位精度,并且ECACon-HF相比其他室内定位方法的定位精度具有明显优势. 从本文实验结果中可以看出,在无干扰情况下,可见光强度指纹的定位精度较高,但如何避免环境对可见光强度的干扰是个问题,因此未来我们将考虑使用强化学习控制环境中的可见光强度,使光强度稳定,减少自然光与遮挡对光强度的影响进而降低可见光定位的应用场景限制.
作者贡献声明:王正康负责论文撰写、实验和模型方案设计和算法的提出;骆冰清负责模型方案设计和算法的提出,并对论文提出修改意见.
-
表 1 无干扰情况下不同指纹定位误差对比
Table 1 Comparison of Different Fingerprint Localization Errors Without Interference
m 指纹类型 平均误差 最大误差 BLE RSSI指纹 1.509 4.321 可见光强度指纹(无干扰) 0.325 0.702 混合指纹(无干扰)(本文) 0.316 0.705 表 2 有干扰下不同指纹定位误差对比
Table 2 Comparison of Different Fingerprint Localization Errors with Interference
m 指纹类型 平均误差 最大误差 BLE RSSI指纹 1.509 4.321 可见光强度指纹(有干扰) 0.547 1.461 混合指纹(有干扰)(本文) 0.406 0.824 表 3 不同指纹下的执行时间
Table 3 Execution Time Under Different Fingerprints
s 指纹类型 执行时间 BLE RSSI指纹 4.264 可见光强度指纹(无干扰) 4.281 混合指纹(无干扰)(本文) 4.283 表 4 不同迭代次数的影响
Table 4 Influence of Different Iterations
迭代次数 平均误差/m 最大误差/m 100 0.363 1.131 200 0.316 0.705 300 0.332 0.803 400 0.361 0.824 注:加粗数字表示最优值. 表 5 不同卷积核大小的影响
Table 5 Influence of Different Convolution Kernel Sizes
卷积核大小 平均误差/m 最大误差/m 2×2 0.359 0.821 2×3 0.398 0.824 2×5 0.386 0.824 2×6 0.355 0.823 3×3 0.350 0.824 5×5 0.316 0.705 注:加粗数字表示最优值. 表 6 不同卷积层数量的影响
Table 6 Influence of Different Number of Convolution Layers
卷积层数量 平均误差/m 最大误差/m 2 0.342 0.822 3 0.340 0.823 4 0.316 0.705 5 0.358 0.955 6 0.363 0.824 注:加粗数字表示最优值. 表 7 ECACon-HF与CNN、引入自注意力的CNN对比
Table 7 Comparison of ECACon-HF, CNN and CNN with Introducing Self Attention
m 对比模型 平均误差 最大误差 CNN 0.341 0.796 CNN+自注意力 0.357 0.823 ECACon-HF(本文) 0.316 0.705 表 8 各方法在3种指纹上的平均误差与最大误差对比
Table 8 Comparison of Average Error and Maximum Error of Each Method on Three Fingerprints
m 对比方法 混合指纹 可见光强度指纹 BLE RSSI指纹 无干扰 有干扰 无干扰 有干扰 平均误差 最大误差 平均误差 最大误差 平均误差 最大误差 平均误差 最大误差 平均误差 最大误差 KNN 1.090 3.256 1.104 3.329 0.339 0.707 0.425 1.217 1.591 4.326 WKNN 1.089 3.261 1.103 3.326 0.339 0.707 0.425 1.217 1.599 4.343 ConFi 0.569 2.115 0.629 2.121 0.377 1.108 0.505 1.536 1.483 4.425 CiFi 0.633 2.113 0.660 2.121 0.402 0.825 0.513 1.437 1.497 4.040 文献[18]的方法 0.576 1.962 0.705 3.143 0.358 1.073 0.480 1.399 1.576 4.718 CNN 0.341 0.796 0.452 1.210 0.358 1.043 0.564 1.922 1.480 4.709 ECACon-HF(本文) 0.316 0.705 0.406 0.824 0.325 0.702 0.547 1.461 1.509 4.321 -
[1] Rusli M E, Ali M, Jamil N, et al. An improved indoor positioning algorithm based on RSSI-trilateration technique for Internet of things (IoT) [C]//Proc of 2016 Int Conf on Computer and Communication Engineering (ICCCE). Piscataway, NJ: IEEE, 2016: 72−77
[2] Giuliano R, Cardarilli G C, Cesarini C, et al. Indoor localization system based on Bluetooth low energy for museum applications[J]. Electronics, 2020, 9(6): 1055 doi: 10.3390/electronics9061055
[3] 张勇,李飞腾,王昱洁. 基于KDDA和SFLA-LSSVR算法的WLAN室内定位算法[J]. 计算机研究与发展,2017,54(5):979−985 doi: 10.7544/issn1000-1239.2017.20160025 Zhang Yong, Li Feiteng, Wang Yujie. Indoor positioning algorithm for WLAN based on KDDA and SFLA-LSSVR[J]. Journal of Computer Research and Development, 2017, 54(5): 979−985 (in Chinese) doi: 10.7544/issn1000-1239.2017.20160025
[4] Bianchi V, Ciampolini P, De Munari I. RSSI-based indoor localization and identification for ZigBee wireless sensor networks in smart homes[J]. IEEE Transactions on Instrumentation and Measurement, 2018, 68(2): 566−575
[5] Zhu Xiaoqiang, Qu Wenyu, Qiu Tie, et al. Indoor intelligent fingerprint-based localization: Principles, approaches and challenges[J]. IEEE Communications Surveys & Tutorials, 2020, 22(4): 2634−2657
[6] 杨国伟,黄兆标,樊冰,等. 基于可见光通信的室内定位与定向系统[J]. 通信学报,2020,41(12):162−170 Yang Guowei, Huang Zhaobiao, Fan Bing, et al. Indoor positioning and orientating system based on visible light communication[J]. Journal on Communications, 2020, 41(12): 162−170 (in Chinese)
[7] Liu Ning, He Tao, He Suining, et al. Indoor localization with adaptive signal sequence representations[J]. IEEE Transactions on Vehicular Technology, 2021, 70(11): 11678−11694 doi: 10.1109/TVT.2021.3113333
[8] Xiang Peng, Ji Peng, Zhang Dian. Enhance RSS-based indoor localization accuracy by leveraging environmental physical features[J]. Wireless Communications and Mobile Computing, 2018, 2018: 8956757
[9] Zhou Chengyi, Liu Junyu, Sheng Min, et al. Exploiting fingerprint correlation for fingerprint-based indoor localization: A deep learning based approach[J]. IEEE Transactions on Vehicular Technology, 2021, 70(6): 5762−5774 doi: 10.1109/TVT.2021.3075539
[10] Wang Xuyu, Yu Zhitao, Mao Shiwen. Indoor localization using smartphone magnetic and light sensors: A deep LSTM approach[J]. Mobile Networks and Applications, 2020, 25(2): 819−832 doi: 10.1007/s11036-019-01302-x
[11] Kanaris L, Kokkinis A, Liotta A, et al. Fusing Bluetooth beacon data with Wi-Fi radiomaps for improved indoor localization[J]. Sensors, 2017, 17(4): 812 doi: 10.3390/s17040812
[12] 吴虹,王国萍,彭鸿钊,等. 一种基于KNN的室内位置指纹定位算法[J]. 南开大学学报:自然科学版,2020,53(6):5−9 Wu Hong, Wang Guoping, Peng Hongzhao, et al. A location fingerprinting algorithm for indoor positioning based on K-nearest neighbors[J]. Acta Scientiarum Naturalium Universitatis Nankaiensis, 2020, 53(6): 5−9 (in Chinese)
[13] Xie Yaqin, Wang Yan, Nallanathan A, et al. An improved K-nearest neighbor indoor localization method based on spearman distance[J]. IEEE Signal Processing Letters, 2016, 23(3): 351−355 doi: 10.1109/LSP.2016.2519607
[14] Zhang Guowei, Xu Zhan, Liu Dan. Research and improvement on indoor localization based on RSSI fingerprint database and K-nearest neighbor points[C]//Proc of 2013 Int Conf on Communications, Circuits and Systems (ICCCAS). Piscataway, NJ: IEEE, 2013: 68−71
[15] Peng Xuesheng, Chen Ruizhi, Yu Kegen, et al. An improved weighted K-nearest neighbor algorithm for indoor localization[J]. Electronics, 2020, 9(12): 2117 doi: 10.3390/electronics9122117
[16] 田洪亮,钱志鸿,梁潇,等. 离散度WKNN位置指纹Wi-Fi定位算法[J]. 哈尔滨工业大学学报,2017,49(5):94−99 doi: 10.11918/j.issn.0367-6234.201610104 Tian Hongliang, Qian Zhihong, Liang Xiao, et al. Discrete degree WKNN location fingerprinting algorithm based on Wi-Fi[J]. Journal of Harbin Institute of Technology, 2017, 49(5): 94−99 (in Chinese) doi: 10.11918/j.issn.0367-6234.201610104
[17] Xue Weixing, Hua Xianghong, Li Qingquan, et al. A new weighted algorithm based on the uneven spatial resolution of RSSI for indoor localization[J]. IEEE Access, 2018, 6: 26588−26595 doi: 10.1109/ACCESS.2018.2837018
[18] Soro B, Lee C. Joint time-frequency RSSI features for convolutional neural network-based indoor fingerprinting localization[J]. IEEE Access, 2019, 7: 104892−104899 doi: 10.1109/ACCESS.2019.2932469
[19] Chen Hao, Zhang Yifan, Li Wei, et al. ConFi: Convolutional neural networks based indoor Wi-Fi localization using channel state information[J]. IEEE Access, 2017, 5: 18066−18074 doi: 10.1109/ACCESS.2017.2749516
[20] Wang Xuyu, Wang Xiangyu, Mao Shiwen. Deep convolutional neural networks for indoor localization with CSI images[J]. IEEE Transactions on Network Science and Engineering, 2018, 7(1): 316−327
[21] Shu Yuanchao, Bo Cheng, Shen Guobin, et al. Magicol: Indoor localization using pervasive magnetic field and opportunistic Wi-Fi sensing[J]. IEEE Journal on Selected Areas in Communications, 2015, 33(7): 1443−1457 doi: 10.1109/JSAC.2015.2430274
[22] Wang Yijin, Xu Xiaolong. Indoor localization service based on hybrid fingerprint map[C]//Proc of the 24th IEEE Int Conf on Web Services (ICWS). Piscataway, NJ: IEEE, 2017: 452−459
[23] Jang J W, Hong S N. Indoor localization with Wi-Fi fingerprinting using convolutional neural network[C]//Proc of the 10th Int Conf on Ubiquitous and Future Networks (ICUFN). Piscataway, NJ: IEEE, 2018: 753−758
[24] Ashraf I, Kang M, Hur S, et al. MINLOC: Magnetic field patterns-based indoor localization using convolutional neural networks[J]. IEEE Access, 2020, 8: 66213−66227 doi: 10.1109/ACCESS.2020.2985384
[25] Zhao Bobai, Zhu Dali, Xi Tong, et al. Convolutional neural network and dual-factor enhanced variational Bayes adaptive Kalman filter based indoor localization with Wi-Fi[J]. Computer Networks, 2019, 162: 106864 doi: 10.1016/j.comnet.2019.106864
[26] Liu Zhenyu, Dai Bin, Wan Xiang, et al. Hybrid wireless fingerprint indoor localization method based on a convolutional neural network[J]. Sensors, 2019, 19(20): 4597 doi: 10.3390/s19204597
[27] Du Wenju, Rao Nini, Dong Changlong, et al. Automatic classification of esophageal disease in gastroscopic images using an efficient channel attention deep dense convolutional neural network[J]. Biomedical Optics Express, 2021, 12(6): 3066−3081 doi: 10.1364/BOE.420935
[28] Shu Xin, Chang Feng, Zhang Xin, et al. ECAU-Net: Efficient channel attention U-Net for fetal ultrasound cerebellum segmentation[J]. Biomedical Signal Processing and Control, 2022, 75: 103528 doi: 10.1016/j.bspc.2022.103528
[29] Xiang Xuezhi, Ren Wenkai, Qiu Yujian, et al. Multi-object tracking method based on efficient channel attention and switchable atrous convolution[J]. Neural Processing Letters, 2021, 53(4): 2747−2763 doi: 10.1007/s11063-021-10519-5
[30] Wang Qilong, Wu Banggu, Zhu Pengfei, et al, ECA-net: Efficient channel attention for deep convolutional neural networks[C]//Proc of the 2020 IEEE/CVF Conf on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE, 2020: 11531−11539
-
期刊类型引用(2)
1. 闫锋,苏忠允. 基于时频域融合和ECA-1DCNN的航空串联故障电弧检测. 科学技术与工程. 2024(05): 1937-1945 . 百度学术
2. 徐双,文永新,刘文斌,李佳龙,李灯熬,赵菊敏. 融合多层注意力机制与CNN-LSTM的反向散射信道预测. 小型微型计算机系统. 2024(09): 2278-2284 . 百度学术
其他类型引用(3)