Processing math: 11%
  • 中国精品科技期刊
  • CCF推荐A类中文期刊
  • 计算领域高质量科技期刊T1类
高级检索

大语言模型和知识图谱协同的跨域异质数据查询框架

吴文隆, 尹海莲, 王宁, 徐梦飞, 赵鑫喆, 殷崭祚, 刘元睿, 王昊奋, 丁岩, 李博涵

吴文隆, 尹海莲, 王宁, 徐梦飞, 赵鑫喆, 殷崭祚, 刘元睿, 王昊奋, 丁岩, 李博涵. 大语言模型和知识图谱协同的跨域异质数据查询框架[J]. 计算机研究与发展, 2025, 62(3): 605-619. DOI: 10.7544/issn1000-1239.202440634
引用本文: 吴文隆, 尹海莲, 王宁, 徐梦飞, 赵鑫喆, 殷崭祚, 刘元睿, 王昊奋, 丁岩, 李博涵. 大语言模型和知识图谱协同的跨域异质数据查询框架[J]. 计算机研究与发展, 2025, 62(3): 605-619. DOI: 10.7544/issn1000-1239.202440634
Wu Wenlong, Yin Hailian, Wang Ning, Xu Mengfei, Zhao Xinzhe, Yin Zhanzuo, Liu Yuanrui, Wang Haofen, Ding Yan, Li Bohan. A Synergetic LLM-KG Framework for Cross-Domain Heterogeneous Data Query[J]. Journal of Computer Research and Development, 2025, 62(3): 605-619. DOI: 10.7544/issn1000-1239.202440634
Citation: Wu Wenlong, Yin Hailian, Wang Ning, Xu Mengfei, Zhao Xinzhe, Yin Zhanzuo, Liu Yuanrui, Wang Haofen, Ding Yan, Li Bohan. A Synergetic LLM-KG Framework for Cross-Domain Heterogeneous Data Query[J]. Journal of Computer Research and Development, 2025, 62(3): 605-619. DOI: 10.7544/issn1000-1239.202440634
吴文隆, 尹海莲, 王宁, 徐梦飞, 赵鑫喆, 殷崭祚, 刘元睿, 王昊奋, 丁岩, 李博涵. 大语言模型和知识图谱协同的跨域异质数据查询框架[J]. 计算机研究与发展, 2025, 62(3): 605-619. CSTR: 32373.14.issn1000-1239.202440634
引用本文: 吴文隆, 尹海莲, 王宁, 徐梦飞, 赵鑫喆, 殷崭祚, 刘元睿, 王昊奋, 丁岩, 李博涵. 大语言模型和知识图谱协同的跨域异质数据查询框架[J]. 计算机研究与发展, 2025, 62(3): 605-619. CSTR: 32373.14.issn1000-1239.202440634
Wu Wenlong, Yin Hailian, Wang Ning, Xu Mengfei, Zhao Xinzhe, Yin Zhanzuo, Liu Yuanrui, Wang Haofen, Ding Yan, Li Bohan. A Synergetic LLM-KG Framework for Cross-Domain Heterogeneous Data Query[J]. Journal of Computer Research and Development, 2025, 62(3): 605-619. CSTR: 32373.14.issn1000-1239.202440634
Citation: Wu Wenlong, Yin Hailian, Wang Ning, Xu Mengfei, Zhao Xinzhe, Yin Zhanzuo, Liu Yuanrui, Wang Haofen, Ding Yan, Li Bohan. A Synergetic LLM-KG Framework for Cross-Domain Heterogeneous Data Query[J]. Journal of Computer Research and Development, 2025, 62(3): 605-619. CSTR: 32373.14.issn1000-1239.202440634

大语言模型和知识图谱协同的跨域异质数据查询框架

基金项目: “十四五”民用航天技术预先研究项目(D020101)
详细信息
    作者简介:

    吴文隆: 2001年生. 硕士研究生. CCF学生会员. 主要研究方向为大语言模型、知识图谱

    尹海莲: 1979年生. 副研究员,硕士生导师. 主要研究方向为飞行器多学科设计优化、机器学习

    王宁: 1987年生. 博士,讲师. 主要研究方向为移动群智感知、数据库管理系统、无线传感器网络

    徐梦飞: 2000年生. 硕士研究生. CCF学生会员. 主要研究方向为知识图谱、大语言模型

    赵鑫喆: 1998年生. 硕士研究生. CCF学生会员. 主要研究方向为大语言模型、知识图谱

    殷崭祚: 2000年生. 硕士研究生. CCF 学生会员. 主要研究方向为机器学习、多模态学习

    刘元睿: 1997年生. 硕士研究生. CCF学生会员. 主要研究方向为大语言模型

    王昊奋: 1982年生. 博士,研究员. CCF 高级会员. 主要研究方向为知识图谱、自然语言处理、大语言模型

    丁岩: 1970年生. 硕士,正高级工程师. CCF会员. 主要研究方向为分布式数据库、大数据领域

    李博涵: 1979年生. 博士,副教授. CCF杰出会员. 主要研究方向为时空数据库、知识图谱、大语言模型、推荐系统

  • 中图分类号: TP391

A Synergetic LLM-KG Framework for Cross-Domain Heterogeneous Data Query

Funds: This work was supported by the Pre-research Project of Civil Space Technology during the 14th Five-Year Plan Period (D020101).
More Information
    Author Bio:

    Wu Wenlong: born in 2001. Master candidate. Student member of CCF. His main research interests include large language model and knowledge graph

    Yin Hailian: born in 1979. Associate professor, master supervisor. Her main research interests include multidisciplinary design optimization of aircraft and machine learning

    Wang Ning: born in 1987. PhD, lecturer. His main research interests include mobile crowd sensing, database management systems, and wireless sensor networks

    Xu Mengfei: born in 2000. Master candidate. Student member of CCF. His main research interests include knowledge graphs and large language models

    Zhao Xinzhe: born in 1998. Master candidate. Student member of CCF. His main research interests include large language models and knowledge graphs

    Yin Zhanzuo: born in 2000. Master candidate. Student member of CCF. His main research interests include machine learning and multi-modal learning

    Liu Yuanrui: born in 1997. Master candidate. Student member of CCF. His main research interest includes large language model

    Wang Haofen: born in 1982. PhD, professor. Senior member of CCF. His main research interests include knowledge graph, natural lanugae processing, and large language model

    Ding Yan: born in 1970. Master, senior-level engineer. Member of CCF. His main research interests include distributed databases and the field of big data

    Li Bohan: born in 1979. PhD, associate professor. Distinguished member of CCF. His main research interests include spatiotemporal database, knowledge graph, large language model, and recommendation system

  • 摘要:

    大语言模型(large language model,LLM)技术热潮对数据质量的要求提升到了一个新的高度. 在现实场景中,数据通常来源不同且高度相关. 但由于数据隐私安全问题,跨域异质数据往往不允许集中共享,难以被LLM高效利用. 鉴于此,提出了一种LLM和知识图谱(knowledge graph,KG)协同的跨域异质数据查询框架,在LLM+KG的范式下给出跨域异质数据查询的一个治理方案. 为确保LLM能够适应多场景中的跨域异质数据,首先采用适配器对跨域异质数据进行融合,并构建相应的知识图谱. 为提高查询效率,引入线性知识图,并提出同源知识图抽取算法HKGE来实现知识图谱的重构,可显著提高查询性能,确保跨域异质数据治理的高效性. 进而,为保证多域数据查询的高可信度,提出可信候选子图匹配算法TrustHKGM,用于检验跨域同源数据的置信度计算和可信候选子图匹配,剔除低质量节点. 最后,提出基于线性知识图提示的多域数据查询算法MKLGP,实现LLM+KG范式下的高效可信跨域查询. 该方法在多个真实数据集上进行了广泛实验,验证了所提方法的有效性和高效性.

    Abstract:

    Recent advances in large language models (LLMs) have significantly elevated requirements for data quality in practical applications. Real-world scenarios often involve heterogeneous data from multiple correlated domains. Yet cross-domain data integration remains challenging due to privacy and security concerns that prohibit centralized sharing, thereby limiting LLM’s effective utilization. To address this critical issue, we propose a novel framework integrating LLM with knowledge graphs (KGs) for cross-domain heterogeneous data query. Our approach presents a systematic governance solution under the LLM-KG paradigm. First, we employ domain adapters to fuse cross-domain heterogeneous data and construct corresponding KG. To enhance query efficiency, we introduce knowledge line graphs and develop a homogeneous knowledge graph extraction (HKGE) algorithm for graph reconstruction, significantly improving cross-domain data governance performance. Subsequently, we propose a trusted subgraph matching algorithm TrustHKGM to ensure high-confidence multi-domain queries through confidence computation and low-quality node filtering. Finally, we design a multi-domain knowledge line graph prompting (MKLGP) algorithm to enable efficient and trustworthy cross-domain query answering within the LLM-KG framework. Extensive experiments on multiple real-world datasets demonstrate the superior effectiveness and efficiency of our approach compared with state-of-the-art solutions.

  • 近年来,随着无线网络技术的快速发展和无线设备的大规模部署,无线感知技术受到了国内外研究学者的高度关注,并且被广泛地应用在室内定位[1]、动作识别[2]和人数统计等各个领域. 作为人数统计的主要方式之一,人流量计数是公共场所实施科学人数管理的关键手段. 通过实时监测特定空间区域内的人流量,能够有效预防因人群拥挤而引发的安全隐患.

    为了实现高精度的人数统计,研究人员相继提出了基于通道闸机、计算机视觉和无线信号的计数方法[3]. 在无线信号领域,WiFi以其普适性强、功耗较低、保护隐私等特点脱颖而出. 发送端发射出的WiFi信号会经过多种路径,包括直线传播、通过物体反射以及经过衍射等,最终到达接收设备,形成多径传播的信号. 在WiFi标准中,通常使用接收信号强度指示(received signal strength indicator,RSSI)和信道状态信息(channel state information,CSI)来描述无线信道. RSSI代表了多条传输路径上信号叠加的总和,无论在传输过程中哪条路径上的信息发生变化,接收端接收到的RSSI值都会随之相应变化[4]. 因此RSSI很容易受到多径和环境变化等因素的影响,基于RSSI技术的人流量计数在精度上始终难以得到较大突破.

    CSI信号携带了通信链路中各种基本属性,与WiFi无线信道的其他信息不同,它具有更高的敏感度和更精细的分辨率. 这种信号能够描述信号传输过程中产生的振幅衰减、相位偏移和时延等变化情况[5]. 由于IEEE802.11n系列通信协议及其之后的无线局域网协议采用了正交频分复用(orthogonal frequency division multiplexing,OFDM)和多输入多输出(multiple in multiple out,MIMO)技术[6],可以很容易地在商用WiFi设备中获取CSI信息. 经过从CSI信号中提取出适用于不同人数的高鲁棒性特征信号后,与机器学习算法相融合,可以构建人流量监测模型,从而实现高度准确的人流量计数. 然而,当前这类方法面临着2个主要问题.

    最初,很多研究都倾向于从商用WiFi的CSI信号中提取时域特征,以供后续的识别工作使用. 然而,商用WiFi的CSI信号不仅仅包括振幅信息,还包含了相位信息. 因此,需要对这2种信息进行分析验证,确定哪种信息更能够准确地反映人体的存在和移动. 此外,目前基于CSI的人流量计数主要关注人群稀疏的情况,未能实现人群密集时的连续人流量监测. 针对以上问题,本文提出了一种基于WiFi信道特征的人流量监测方法Wi-HFM,该方法通过商用WiFi设备获取不同人数对应的CSI信息,利用解卷绕和线性相位校正对原始数据进行预处理,再采用巴特沃斯滤波器降噪,使用主成分分析(principal component analysis,PCA)算法对特征进行降维. 最后把时域上的相位差输入到卷积长短时深度神经网络(convolutional, long short-term memory, deep neural network,CLDNN)中进行人数的分类并生成识别结果. 本文的主要贡献有3个方面:

    1)针对现有WiFi设备中所获取的CSI中包含振幅和相位2种信息的情况,本文利用传统特征的方式比较CSI中振幅信息和相位差信息的有效性. 验证了时域上的相位差信息优于振幅信息,用以表征不同人数对无线信号的影响.

    2)针对当前基于CSI技术的人流量计数方法在人群密集场景下应用受限的问题,本文加入了连续性人流量监测,通过标准差和方差提取连续性人流数据中的有效数据包,来处理收发装置视距内的多排人群数据.

    3)在人流量监测模型构建的阶段,本文采用了CNN(convolutional neural network)以提取CSI的空间特征,同时采用LSTM(long short-term memory)提取信号的时域特征. 通过这种方法,成功构建了CLDNN模型用于监测人流量的变化.

    人群计数是对特定空间内的人数进行统计. 早期人群计数通过传统的计算机视觉技术来提取行人特征,然后采用目标检测或回归的方法来获得图像或视频中的人群数量[7]. 例如,Lin等人[8]提出了一个多方面注意力网络,以增强transformer模型在空间局部上下文编码中进行人群计数的能力,优化了人群图像中频繁出现的显著尺度变化问题. 目前基于计算机视觉的人群计数主要依赖于有限的RGB图像数据,而Liu等人[9]则采用了融合光学与热信息的策略来实现对行人的识别. 实验结果证明了这一方法在多模态(例如RGBT和RGBD)人群计数方面的有效性,能够在各种不受限制的场景中探测到可能存在的行人. 虽然摄像机安装方便,但是现有的计算机视觉方法大多需要收集大量的图像或视频数据,这引发了对于数据隐私的担忧. 为了克服一些场景下所面临的隐私保护问题,基于传感器技术和无线信号技术的人群计数获得了越来越多的关注.

    基于传感器的人群计数将选定的传感器(如红外传感器、深度传感器和微波传感器等)安装在需要监测的区域内,通过计算和分析传感器数据,识别当前区域内的人数. Liu等人[10]采用了成对配置的红外距离传感器,以监测公交车上的乘客数量,其实验结果实现了95%的精确度. 文献[11]提出了一种基于置于场景顶部的Kinect传感器的新型算法,通过在深度图像中检测人们的头部来实现其轨迹跟踪. 利用SVM分类器来区分是否为人类的头部,有效解决了拥挤场景下的人群遮挡问题. 然而传感器数据精度受到其技术特性和安装位置的限制,同时一些传感器需要连续运行,这可能会导致不小的能耗,尤其在长时间监测人群的情况下.

    基于无线信号的人群计数方法主要依托于分析人体对无线信号(如雷达、WiFi等)的影响,以统计人群数量. Choi等人[12]提出了一种基于IR-UWB(impulse radio ultra-wideband)雷达的行人计数系统,该系统利用2个配备窄波束宽度天线的雷达传感器,在路径中形成2个不可见的电子层,用于统计某个区域中行走的人数. 文献[13]提出了CrossCount,它使用单个WiFi链路来估计区域的人数. 其主要思想是处理WiFi链路阻塞间隔,而不是依赖于从RSSI值中提取的统计特征. 在新冠病毒大流行的背景下,Sharma等人[14]利用CSI幅度的频率来测定特定区域内的人数分布,以维持社交距离. 实验证明该系统能够有效监测电梯内人数是否超出新冠肺炎的安全限制,其准确率高达97%,具有高鲁棒性和良好的可扩展性.

    人流量计数是对通过一个特定通道的人数进行统计. 目前,人流量计数领域的方法相对有限,主要分为2类:通道闸机和无线信号的计数方法. 通道闸机通过在出入口安装闸机(例如转门、门禁闸、电子闸机等)来实时感知人员的进出情况. 文献[15]利用8组红外传感器对闸机通道进行物体检测,并应用ARIMA模型分析历史闸机通道的客流量数据,以预测不同时间段的客流情况. 然而,在高峰时段通道闸机的处理速度较为缓慢,这会导致人们排队等候和时间延误的情况,从而限制了进出特定区域的人员流动.

    随着无线网络技术的兴起,人们逐渐开始探索以无线信号实现人流量计数的可能性,WiFi因其低成本、易于部署等优势得到广泛应用. 研究初期,人们利用RSSI来实现人流量计数. 其原理是根据信号强度的变化来估计出监测区域人员的数量. 文献[16]使用支持向量机来探究RSSI与人数之间的关系,但是实验结果显示,仅达到77%的准确率,因此在实际应用中存在较大局限性. CSI相对于RSSI具有更高的信号分辨率,能够提供更详细的信道状态信息,从而在一定程度上减小信号强度波动对应用的影响. Yang等人[17]提出了一种名为Door-Monitor的访客计数系统,该系统对相位差序列进行了短时傅里叶变换,并在此基础上应用卷积神经网络建立计数模型. Zhou等人[18]利用人类通过WiFi设备所引起的多普勒效应,提出了WiFlowCount. 该方法利用CSI信号构建多普勒频移的频谱图,根据频谱图中的功率分布检测人流. 但是该方法需要个体之间保持较大的间距,因此其实际可行性受到限制.

    在利用WiFi信号来估计人流量时,需要建立CSI信号与人数之间的映射关系. 在监测环境中,不同的人数可能导致CSI信号在传播过程中发生不同程度的反射和衍射,从而产生多径效应. 当有N条传播路径在时刻t到达接收端时,信号的理想信道频率响应[19](channel frequency response,CFR)表达式为:

    H(f,t)=ej2πΔftNk=1ak(f,t)ej2πfτk(t) (1)

    其中f为载波频率,ej2πΔft表示由载波频移导致的相位差,ak(f,t)则表示第k条路径上的衰减以及初始相位[20]ej2πfτk(t)表示第k条路径上的相位偏移,其时延为τk(f,t).

    在无线通信领域,多径效应包括静态路径和动态路径2个部分[21]. 静态路径被看作是与人体影响无关的部分,可用Hs(f,t)来表示. 与此不同,动态路径被视为受到人体影响的部分,可以用Hd(f,t)来表示:

    Hd(f,t)=kPdak(f,t)e1λj2πdk(t) (2)

    其中Pd为所有动态路径. 结合式(1)(2)可得总的信道频率响应为

    H(f,t)=ej2πΔft(Hs(f,t)+kPdak(f,t)e1λj2πdk(t)). (3)

    通过上述公式的推断,信道频率响应包含了有关CSI信号的全部信息,呈现出与人数变化相互关联的趋势,从而证实了CSI人流量监测的可行性. 在窄带平坦衰落信道中,假设发送信号向量为 \boldsymbol{x} ,接收信号向量为 \boldsymbol{y} ,那么有[22]

    {\boldsymbol{y}}={\boldsymbol{Hx}}+{\boldsymbol{z}}\text{,} (4)

    其中 \boldsymbol{z} 为环境噪声向量, \boldsymbol{H} 为信道矩阵. 根据IEEE802.11协议标准,CSI被划分为30个子载波,则 \boldsymbol{H} 表示为

    {\boldsymbol{H}}=\left({\boldsymbol {H}}_{1},{\boldsymbol {H}}_{2},… ,{\boldsymbol {H}}_{30}\right). (5)

    对于单个子载波,CSI的形式为:

    {\boldsymbol {H}}_{i}={\boldsymbol {h}}_{i}{\mathrm{e}}^{\mathrm{jsin}{\theta }_{i}}\text{,} (6)

    其中 \left|{\boldsymbol {h}}_{i}\right| 表示第i个子载波的振幅信息, {\theta }_{i} 为第 i 子载波的相位信息. 由式(6)可知CSI是对每条传输链路中的每个子载波的估计,当有人进入收发装置视距的位置时,CSI信号中的振幅和相位信息会出现变化,因此可以通过建立人数与CSI数据信息之间的关联来实现人流量的监测.

    图1所示,Wi-HFM系统的工作流程可划分为4个关键阶段,包括数据获取、数据处理、特征提取和分类识别. 在数据获取阶段,采用商用WiFi设备建立了AP(access point)模式,包括1个发送天线和3个接收天线,通过组织人员进行人流量模拟实验以获取多组单排人流和多排人流数据. 在数据处理阶段,充分利用信道状态信息测量值中的细粒度信息,分别对振幅信息和相位信息进行预处理,包括清洗数据、选择天线对和提取数据包等.

    图  1  Wi-HFM模型工作流程图
    Figure  1.  Flow chart of Wi-HFM model

    在特征提取阶段,为了获取最优的特征信号以精确地描述人数对无线信号的影响,本文采用主成分分析对从时域和小波域中提取的特征信号进行了降维处理. 通过分析特征信号在时域和时频域上的效果,最终确定了时域中的相位差作为主要的识别特征信号. 在分类识别阶段,使用深度学习来探索CSI数据中的潜在特征. 本文选择了卷积神经网络以有效地提取信号的空间特征,以及循环神经网络来提取信号的时域特征,从而构建了一个名为CLDNN的人流量监测模型.

    通过商用WiFi设备收集到的CSI信号中主要包含振幅和相位2种物理信息,但是原始CSI数据中掺杂了大量的异常值以及噪声,需要对其分别进行预处理,从而为后续特征信号的确立提供优质数据集. 这2种物理信息的预处理过程十分类似,都包括定位天线对、定位数据包和数据清洗等步骤,本文将以相位的预处理为例,以此阐述CSI信号预处理的总过程. 传统的CSI采集工具[23]所测得的子载波 i 的相位信息,可以被表达为

    {\hat{\phi }}_{i}={\phi }_{i}+2\pi \dfrac{{k}_{i}}{{N}_{f}}{\alpha }_{i}+{\beta }_{i}+Z\text{,} (7)

    其中 {\hat{\phi }}_{i} 表示原始相位, {\phi }_{i} 为真实相位, {k}_{i} 是第 i 路子载波的索引值, {N}_{f} 为FFT点数, {\alpha }_{i} 是时钟同步误差, {\beta }_{i} 是载频同步误差, Z 是噪声. 根据式(7),因设备之间时间不同步,会带来时钟同步误差和载频同步的残余误差. 尽管这些残余误差对CSI的振幅影响较小,在大多数情形下或可忽略,然而对于CSI的相位而言,却会有较为显著的影响,导致了相位偏移的产生.

    为了获取准确的相位信息,本文通过解卷绕[24]和线性相位校正[25]对相位进行预处理. 解卷绕旨在对相位进行修正,将子载波原本的相位范围进行补偿和延拓. 线性校准算法则致力于消除由线性相位误差如载波频偏(carrier frequency offset,CFO)和符号同步偏移(symbol timing offset,STO)引起的随机相位偏移,因此线性相位校正的主要目标在于削弱式(7)中αβ所产生的影响. 定义关键变量 \mu \nu

    \mu =\dfrac{{\hat{\phi }}_{i,n}-{\hat{\phi }}_{i,1}}{{k}_{n}-{k}_{1}}=\dfrac{{\phi }_{i,n}-{\phi }_{i,1}}{{k}_{n}-{k}_{1}}-\dfrac{2{\text{π}}}{{N}_{f}}{\alpha }_{i}\text{,} (8)
    \nu =\dfrac{1}{n}\displaystyle\sum _{j=1}^{n}{\hat{\phi }}_{i,j}=\dfrac{1}{n}\displaystyle\sum _{j=1}^{n}{\phi }_{i,j}-\dfrac{2{\text{π}}{\sigma }_{i}}{n{N}_{f}}\displaystyle\sum _{j=1}^{n}{k}_{j}+\beta . (9)

    式(9)中, i 表示数据包序号, j 为子载波序号, {k}_{j} 表示第 j 个子载波索引值, n 为子载波个数. 假设CSI中的子载波是对称的,即 \displaystyle\sum\limits_{j = 1}^n {{k_j} = 0} ,那么可以得到 v = \dfrac{1}{n}\displaystyle\sum\limits_{j = 1}^n {{\phi _{i,j}} + \beta } . 从原始相位中减去线性变量 \mu {k}_{i}+\nu 得:

    {\tilde{\phi }}_{i}={\hat{\phi }}_{i}-\mu {k}_{i}-\nu ={\phi }_{i}-\dfrac{{\phi }_{n}-{\phi }_{1}}{{k}_{n}-{k}_{1}}{k}_{i}-\dfrac{1}{n}\displaystyle\sum _{j=1}^{n}{\phi }_{j}. (10)

    经过相位的校正处理,获得的结果是真实相位经过线性变换得到的值. 此外,经过校正后的相位方差与实际相位方差之间存在一个缩放因子,该缩放因子为常数 {c}_{i} ,其大小与频率相关:

    \begin{split} {\sigma }_{\tilde{{\phi }_{i}}}^{2}={c}_{i}{\sigma }_{{\phi }_{i}}^{2}\text{,}\end{split} (11)
    \begin{split} {c}_{i}=1+2\dfrac{{k}_{i}^{2}}{({k}_{n}-{k}_{1}{)}^{2}}+\dfrac{1}{n}.\end{split}

    由于收发设备的特性,不同接收天线接收无线信号是彼此独立的,即 {\phi }_{i,1} {\phi }_{i,2} 是相互独立的,可以推导出:

    {\sigma }_{\mathrm{\Delta }{\tilde{\phi }}_{i}}^{2}={\sigma }_{{\tilde{\phi }}_{i,1}}^{2}+{\sigma }_{{\tilde{\phi }}_{i,2}}^{2}. (12)

    通过式(12)可以推断,不同的2根天线之间的相位差方差是每根单独天线的相位方差和. 因此相较于单独天线的相位信号,相位差信号具有更高的分辨率,本文选取相位差作为特征信号能更好地映射不同的人数对WiFi信号的影响.

    在传统的商用WiFi设备中,通常采用OFDM-MIMO技术实现多发多收的通信情形. 本文使用一套1发3收的设备来收集数据,借助3根接收天线中的相位信息两两做差得到了3个相位差矩阵. 为了避免因过多天线对而产生的数据冗余,需要从中选取出对人数变化最为敏感的天线对. 当人数对信号的影响增加时,信号的调制程度也会增加,从而导致子载波中的相位差方差增大. 因此本文选择方差这一指标来衡量人数对天线对的影响程度,以更好地捕捉人数变化对CSI的影响. 图2展示了在不同天线对中30个子载波的相位差方差分布情况. 其中,横轴表示天线对,纵轴表示相位差方差大小,散点表示各子载波的相位差方差,折线数值则代表30个子载波相位差方差的平均值. 通过图2观察到天线对1和3的平均方差最大,因此本文选择天线对1和3的相位差作为人流量监测的信息来源.

    图  2  不同天线对30个子载波中的相位差方差
    Figure  2.  Phase difference variance of 30 subcarriers in different antenna pairs

    由于收发装置自身硬件的发射功率或传输速率等状态可能发生变化,因此采集到的原始CSI信号可能会出现异常值并导致明显的突变. 为了排除这些突变值,本文采用了Hampel滤波器[26],该滤波器在去除异常值方面具有显著的优势. 图3展示了在某个子载波上相位差信息经过Hampel滤波后的结果. 图3中用方框标记的圆点即为被识别为异常值的数据点.

    图  3  Hampel 滤波结果图
    Figure  3.  Result graph of Hampel filtering

    相较于振幅滤波,对相位差进行滤波的关键在于确保滤波器不引起相位偏移,并且不改变信号的域. 因此,本文采用巴特沃斯滤波器来实现相位差的滤波操作. 该滤波器的传递函数为:

    {\left|H\left(\omega \right)\right|}^{2}=\dfrac{1}{1+\left(\dfrac{\omega }{{\omega }_{\mathrm{c}}}\right)^{2N}}=\dfrac{1}{1+{\varepsilon }^{2}\left(\dfrac{\omega }{{\omega }_{\mathrm{p}}}\right)^{2N}}\text{,} (13)

    其中 N 表示滤波器的阶数, {\omega }_{\mathrm{c}} 表示截止频率, {\omega }_{\mathrm{p}} 表示通频带边缘频率. 由于人行走的频率在20~80 Hz之间,所以巴特沃斯滤波器的截止频率被设置为经验值60. 该滤波器在很大程度上去除了噪声,在保留低频成分的同时对高频噪声进行了基本的滤波,以使波形更加清晰和平滑.

    当人体靠近或远离收发装置时,各子载波的相位信息发生相应改变.尤其当人体位于收发装置的视距位置时,CSI相位差的变化更为显著.为了获取人体在通过收发装置的视距位置时的最大信息量,需要提取相应的数据包. 图4展示了30个子载波相位差方差的平均值. 600~750区间的数据包展现出比其他数据包更为显著的相位差方差. 因此,本文采用滑动窗口的方法提取信息量最大的150个数据包.

    图  4  30个子载波的相位差平均方差
    Figure  4.  Average variance of phase difference for 30 subcarriers

    为了确定最佳的人流量特征信号,本文先对经过清洗的振幅和相位差信息进行特征提取,包括时域特征和小波域特征. 接着对这些特征进行降维处理,并通过两两组合这些特征的方式来验证其有效性. 在时域特征中,本文手工设计了均值、方差和峰峰值3个传统特征. 而在小波域特征中,也手工设计了过零点数量、方差和能量这3个特征. 考虑到CSI数据维度较高,本文采用PCA算法选取贡献率最高的第一主成分,以便更加直观地比较传统特征的显著程度.

    图5展示了不同人数与不同特征之间的散点图,其中横坐标和纵坐标分别表示不同的特征. 图5(a)时域中的均值特征和方差特征在区分1人和5人方面具有明显差异,但在区分2人、3人和4人之间存在完全的重叠,因此难以进行区分. 图5(b)小波域的过零点和方差特征对不同人数的区分度非常低,几乎所有人数都彼此重叠. 图5(c)时域联合特征和小波域联合特征也存在着相似的问题,区分1人相对容易,但区分其他人数也面临困难. 然而,图5(d)中的相位差在时域上的特征呈现较为均匀的分布,重叠较少,因此具有较高的区分度.

    图  5  不同组合特征的性能
    Figure  5.  Performance of different combination features

    综上所述,可以确定在时域上相位差信息作为人流量监测的特征信号. 然而,值得注意的是,提出的特征仍然存在轻微的重叠,不能完全区分出所有的人数. 由于手工设计的特征存在一定的限制,因此需要采用更高效的方法来挖掘人数与相位差中的潜在特征. 在3.4节中,本文将详细介绍如何利用深度学习来提取信号中的潜在信息.

    3.1节和3.2节是基于单排人数据的分析结果,然而,在实际场景中,还会收集到连续多排人经过收发装置的数据. 如图6所示,这是经过数据清洗处理的部分多排人数据图,其中横坐标表示数据包个数,纵坐标表示相位差.

    图  6  部分多排人数据图
    Figure  6.  Partial multi-row people data graph

    图6中可以观察到,收集到的数据中存在多个明显的数据波动,每个波动对应着一排人通过收发装置. 因此,有效处理多排人数据的关键在于从连续的CSI数据中提取出有效的人流区间,并从这些区间中提取包含人在收发设备视距位置经过的最重要信息的数据包.

    本文提出了利用标准差和方差来提取多排人数据中的有效数据包的方法. 该方法使用滑动窗口计算数据包的标准差,并与预设的阈值进行比较,以确定一排人的人流区间的起始点和结束点. 接着利用方差在这些起始点和结束点之间的数据段上确定人流通过收发装置视距的数据包,这些数据包被认为是最具信息价值的CSI数据段. 具体步骤为:

    1)假设有一个连续的CSI数据时间序列 x[i]= \{{{x}_{1},{x}_{2},… ,{x}_{j} }\},其中第 j 个数据点为 {x}_{j} ,在这种情况下,计算窗口内的标准差值:

    S T {D}_{j}\left[i\right]=\sqrt{{\dfrac{1}{w-1}\displaystyle\sum _{j=1}^{w}{\left({x}_{j}-\bar{x}\right)}^{2}}}\text{,} (14)

    其中 i 表示子载波个数,本文 i\in \left\{\mathrm{1,2},… ,30\right\} j 表示CSI数据时间序列上的第 j 个数据包, w 表示窗口长度,本文中w=150. 此外, {x}_{j} 表示CSI数据时间序列上的第 j个数据包的相位差,而 \bar{x} 表示CSI数据时间序列上的窗口大小为 w 的平均值.

    2)计算第 j 个数据点上所有子载波的标准差:

    S T {D}_{j}=\displaystyle\sum _{i=1}^{30}S T {D}_{j}\left[i\right]. (15)

    3)根据实验确定阈值T,本文中T=2.5. 这些起始点和终止点构成了连续的CSI数据时间序列,并满足:

    \left\{\begin{aligned}& S T {D}_{j_{\mathrm{b}\mathrm{e}\mathrm{g}\mathrm{i}\mathrm{n}}} > T\text{,}\\& S T {D}_{j_{\mathrm{e}\mathrm{n}\mathrm{d}}} > T. \end{aligned}\right. (16)

    4)确定好起始点和终止点后,人流区间CSI数据时间序列表示为

    x\left[i\right]=\left\{{x}_{j_{\mathrm{b}\mathrm{e}\mathrm{g}\mathrm{i}\mathrm{n}},}{x}_{j_{\mathrm{b}\mathrm{e}\mathrm{g}\mathrm{i}\mathrm{n}}+1,… ,}{x}_{j_{\mathrm{e}\mathrm{n}\mathrm{d}}}\right\}. (17)

    5)人流通过收发装置视距的CSI数据时间序列应当符合条件

    y=\mathrm{max}\left(\dfrac{1}{w-1}\displaystyle\sum _{k=j_{\mathrm{b}\mathrm{e}\mathrm{g}\mathrm{i}\mathrm{n}}}^{w}{\left({x}_{k}-\bar{x}\right)}^{2}\right). (18)

    Wi-HFM使用时域上的相位差来识别通道经过的人数. 人体经过WiFi设备的过程在空间和时间上都是动态的,这使得CSI信号会随着人数的改变和时间推移而变化,因此时域上的相位差具有潜在的空间特性和时间关联性. 为了捕获这2种潜在特性,本文采用深度学习中的CLDNN模型来自动学习CSI数据的抽象特征表示,以解决传统机器学习方法中手工设计特征的问题.

    CLDNN[27]是将CNN,LSTM,DNN这3种网络模型中的核心部分融合在一起的一种新型神经网络. CNN具有局部连接、权值共享和池化操作等特点,在处理具有空间结构的数据时表现出色,因此本文采用CNN来提取CSI天线对中相位差的空间特征. 同时CSI是与时间相关的长序列数据,该数据在时域上对不同人数具有较强的区分度,故采用LSTM提取时间序列上的关联性特征. 由于CNN输出为高维而LSTM需要输入为低维,在两者中间添加了一个线性层以降低数据维度. 为了将前面提取的空间特征和时间特征映射到更具可区分性的空间中,将LSTM的输出传递给全连接层后采用Softmax函数进行人数分类.

    本文的CNN模型由1个卷积层和1个池化层组成,卷积层提取CSI相位差数据中的局部特征信息,池化层减小数据尺寸,降低运算量的同时为后续处理提供更好的输入. CNN通过滑动窗口的方式与卷积核做卷积操作得到不同的输出特征图,输出特征图的数量与使用的卷积核的数量相同. 卷积运算的具体公式为:

    {\boldsymbol {X}}_{m}=f\left(\displaystyle\sum _{n}{\boldsymbol {W}}_{m}^{n}\cdot {\boldsymbol {X}}^{n}+{\boldsymbol {b}}_{m}\right)\text{,} (19)

    其中 {\boldsymbol {X}}_{m} 表示第 m 个输出特征图, {\boldsymbol {W}}_{m}^{n} 表示卷积核参数, {\boldsymbol {b}}_{m} 为偏置参数, f\left(\cdot \right) 为激活函数,本文采用 \mathrm{R}\mathrm{e}\mathrm{L}\mathrm{U} 函数作为激活函数,用来缓解过拟合和梯度消失等问题.

    传统的RNN模型可以处理CSI这种长序列数据存在梯度消失或梯度爆炸的问题,因此本文采用基于RNN改进的LSTM以捕获数据中的时间相关性. LSTM设计了3个门控单元来控制细胞的长期状态. 首先遗忘门会根据当前时刻输入的 {\boldsymbol {x}}_{t} 和前一时刻隐藏层输出的外部状态 {\boldsymbol {h}}_{t-1} ,通过 \mathrm{S}\mathrm{i}\mathrm{g}\mathrm{m}\mathrm{o}\mathrm{i}\mathrm{d} 函数 \sigma 决定哪些信息应该从细胞状态 {\boldsymbol {c}}_{t-1} 中被遗忘. {\boldsymbol {f}}_{t} 表示每个细胞状态元素被遗忘的程度,并在 \left[\mathrm{0,1}\right] 区间内取值,公式为:

    {\boldsymbol {f}}_{t}=\sigma \left({\boldsymbol {W}}_{\boldsymbol {f}}\cdot \left[{\boldsymbol {x}}_{t},{\boldsymbol {h}}_{t-1}\right]+{\boldsymbol {b}}_{\boldsymbol {f}}\right). (20)

    其次通过输入门来更新细胞状态,以确定要存储哪些信息到细胞状态中. 输入门的 \mathrm{S}\mathrm{i}\mathrm{g}\mathrm{m}\mathrm{o}\mathrm{i}\mathrm{d} 函数用于确定更新的权重,而函数 \mathrm{t}\mathrm{a}\mathrm{n}\mathrm{h} 则生成一个候选向量 {\tilde{\boldsymbol {c}}}_{t} ,该候选向量会被添加到细胞状态中. 输入门的输出 {\boldsymbol {i}}_{t} 和候选者向量 {\tilde{\boldsymbol {c}}}_{t} 的计算公式为:

    {\boldsymbol {i}}_{t}=\sigma \left({\boldsymbol {W}}_{\boldsymbol{i}}\cdot \left[{\boldsymbol {x}}_{t},{\boldsymbol {h}}_{t-1}\right]+{\boldsymbol {b}}_{\boldsymbol {i}}\right)\text{,} (21)
    {\tilde{\boldsymbol {c}}}_{t}= {{\mathrm{tanh}}}\left({\boldsymbol {W}}_{\boldsymbol {c}}\cdot \left[{\boldsymbol {x}}_{t},{\boldsymbol {h}}_{t-1}\right]+{\boldsymbol {b}}_{\boldsymbol{c}}\right). (22)

    将旧细胞状态 {\boldsymbol {c}}_{t-1} 更新成 {\boldsymbol {c}}_{t} ,公式为:

    {\boldsymbol {c}}_{t}={\boldsymbol {f}}_{t}\odot {\boldsymbol {c}}_{t-1}+{\boldsymbol {i}}_{t}\odot {\tilde{\boldsymbol {c}}}_{t}. (23)

    最后由输出门来产生所需的输出值,这个最终的输出值是基于细胞状态的内容来决定的. 输出门的 \mathrm{S}\mathrm{i}\mathrm{g}\mathrm{m}\mathrm{o}\mathrm{i}\mathrm{d} 函数确定了细胞状态中的哪些成分被输出,接着细胞状态 {\boldsymbol {c}}_{t} 会经过函数 \mathrm{t}\mathrm{a}\mathrm{n}\mathrm{h} 的处理,然后与之前 \mathrm{S}\mathrm{i}\mathrm{g}\mathrm{m}\mathrm{o}\mathrm{i}\mathrm{d} 函数的输出 {\boldsymbol {o}}_{t} 相乘,得到最终的输出结果. 具体的计算公式为:

    {\boldsymbol {o}}_{t}=\sigma \left({\boldsymbol {W}}_{\boldsymbol {o}}\cdot \left[{\boldsymbol {x}}_{t},{\boldsymbol {h}}_{t-1}\right]+{\boldsymbol {b}}_{\boldsymbol {o}}\right)\text{,} (24)
    {\boldsymbol {h}}_{t}={\boldsymbol {o}}_{t}\odot \mathrm{tanh}\left({\boldsymbol {c}}_{t}\right)\text{,} (25)

    其中 \boldsymbol{W} 为各个门的权重矩阵, \boldsymbol{b} 为偏置向量. 接着在CNN和LSTM之间引入线性层以调整特征表示和维度,而LSTM的输出会被传递给全连接层,用于后续的分类任务. 由此构建的人流量监测网络模型称为 CLDNN,其结构如图7所示.

    图  7  CLDNN结构图
    Figure  7.  CLDNN structure diagram

    模型使用1对天线采集的 CSI 数据作为输入,因此设置了单个输入通道. 第1层卷积层采用 3×15 的卷积核,步幅为 1×1,输出通道为32. 为了提取主要特征并防止过拟合,卷积层后接一个池化层,下采样大小和步幅均为 2×4. 最后将池化层的输出传递给一个线性层,获得256个输出.

    本文采用包含 64 个神经元的 LSTM 隐藏层,并使用函数tanh作为内部状态的激活函数,遗忘系数设定为 0.9. 深度神经网络的输出结果由众多网络参数共同决定,因此本文选择广泛使用的 Adam 算法作为训练算法. Adam 算法能够根据损失函数动态调整每个参数的学习速率,避免因梯度过大导致的学习步长过大问题,从而提高训练效率.

    CLDNN 模型最后使用 Softmax 层输出人数分类结果. 假设样本集合为 {X}=\left\{{\boldsymbol {x}}_{1},{\boldsymbol {x}}_{2},… ,{\boldsymbol {x}}_{n}\right\} ,共有 l 个类别(本文中 l=5 ), {\boldsymbol {\psi }}_{j} 为第 j 类的权重. 模型计算每个样本所有类别概率的公式为:

    P\left({y}_{i}=j|{\boldsymbol {x}}_{i},{\boldsymbol {\psi }}_{j}\right)={\mathrm{e}}^{{\boldsymbol {\psi }}_{j}^{\mathrm{T}}{\boldsymbol {x}}_{i}}/\displaystyle\sum _{j=1}^{l}{\mathrm{e}}^{{\boldsymbol {\psi }}_{j}^{\mathrm{T}}{\boldsymbol {x}}_{i}}. (26)

    对于每个样本向量 {\boldsymbol {x}}_{i} ,模型输出的结果是一个 l 维列向量. 该向量中的每个元素代表样本属于对应类别的概率,且所有元素之和为 1. 最终,模型将概率最高的类别判定为该样本的类别.

    Wi-HFM的分类识别包括2个阶段:离线训练和在线识别. 在离线训练阶段,深度学习网络的参数是通过单排人数据集和多排人数据集进行离线学习得到的. 而在在线识别阶段,模型使用当前采集到的多排人数据信息来输出人数的估计值. 通过上述方法,Wi-HFM能有效识别出单排人数和连续性人流人数.

    实验采用AP模式,即借助一个Tenda F3 WiFi路由器和一个带有Intel WiFi Link 5300网卡的小型主机,以收集人流量数据. 数据解析工作使用了CSI Tool开源软件包. 发送端的路由器工作在2.4 GHz频段,仅装备有1根天线,而接收端的小型主机则配备了外接的3根天线,这两者被安置在高1.1 m的三角支架上,形成了1×3的MIMO系统,以500 packet/s的采样率进行数据收集.

    为了构建室外和室内场景模型,本文选取了2栋教学楼之间的走廊和1栋教学楼内的通道作为实验场地. 实验环境布局如图8 所示. 图8(a)表示的室外场景位于走廊,宽度约为5.5 m,无其他障碍物,因此多径效应较少,信号损失较小. 而图8(b)表示的室内场景位于通道,宽度约为7 m,但存在桌子、电梯等障碍物,导致多径效应明显,信号损失较大.

    图  8  实验环境布局图
    Figure  8.  Layout of experimental environment

    为了收集CSI数据,邀请了16名不同身高体重的志愿者,其中男女各8位. 志愿者们参与了多次实验,其中包括单排0~5人通过收发装置和连续人流通过收发装置的情况. 本文总共收集了2 000个人流数据样本,其中一半是单排人流数据,另一半是多排人流数据,文献[28]给出了Wi-HFM数据集的开源地址. 本文将80%的单排和多排人流数据样本用作训练数据集,剩下的20%用于测试数据集,最后根据测试集的准确率来评估系统性能.

    在Wi-HFM的应用场景中,收发端之间的距离和多排人之间的间隔都对实验结果产生影响. 本研究对这2个因素进行了详细调查,以寻找实现最佳人流量识别效果的条件.

    收发设备之间的距离会对信号产生影响. 如果设备距离太近,通道容量不足以容纳更多人;而如果距离太远,会导致信号衰减. 鉴于现实中存在多人通行的情况,实验将最小距离设置为2.5 m,而室外通道的最大距离设置为4.5 m. 在实验中,将设备之间的距离设置在2.5~6.5 m,单排人数据实验结果如表1所示. 从表1中可以发现,当收发设备之间的距离超过4.5 m时,识别准确率下降. 因此,最佳的收发设备距离应该在2.5~4.5 m.

    表  1  收发设备之间不同距离的准确率
    Table  1.  Accuracy of Different Distances Between Transmitting and Receiving Devices
    距离/m 室外准确率/% 室内准确率/%
    2.5 98.3 96.5
    3.5 98.6 96.6
    4.5 98.2 96.6
    5.5 90.3
    6.5 75.6
    注:室外通道最大距离为4.5 m.
    下载: 导出CSV 
    | 显示表格

    连续的人流通过监测装置时,由于人与人之间可能相互干扰,所以需要分析多排人之间的距离对监测性能的影响. 本文在连续人流中设置了不同的排与排之间的距离,分别为0.5 m,1 m,1.5 m,2 m以及2 m以上,多排人数据的实验结果见表2. 研究结果表明,只要排与排之间的距离大于1 m以上,就可以准确地识别人数.

    表  2  多排人之间不同距离的准确率
    Table  2.  Accuracy of Different Distances Between Multiple Rows of People
    距离/m 室外准确率/% 室内准确率/%
    0.5 70.8 64.3
    1.0 91.3 90.5
    1.5 95.2 94.8
    2.0 95.2 94.8
    >2.0 95.2 94.8
    下载: 导出CSV 
    | 显示表格

    CLDNN模型具有大量参数,模型的输出受这些参数共同影响,因此参数调整成为构建CLDNN网络模型的关键步骤. 在深度学习中,样本数量对准确率有显著影响. 如图9所示,不同样本数量下的准确率表现差异明显. 单排人数据的拟合度最高,通常只需要少量的样本数. 而对于多排人数据,由于人与人之间的距离有差异,模型需要更多数据来学习. 然而,无论是单排人数据还是多排人数据,CLDNN都能够良好地拟合模型,实现高精度的识别,这体现了CLDNN在应对不同数据情境时的优越性.

    图  9  不同样本数的准确率
    Figure  9.  Accuracy of different sample numbers

    为了快速达到最低损失值,以避免学习率过大引发的震荡和误差,需要随着训练轮数的增加逐渐降低学习率. 不同的学习率衰减函数会影响收敛速度等结果. 本研究比较了5种经典的衰减函数,它们使用了初始学习率0.01或0.001,并设置衰减率为0.9. 不同衰减函数的迭代次数结果列于表3中.

    表  3  不同衰减函数的迭代收敛次数
    Table  3.  Iterative Convergence Times for Different Decay Functions
    衰减函数 初始学习率 迭代次数
    exponential_decay 0.001 100
    natural_exp_decay 0.010 150
    polynomia_decay 0.001 >400
    inverse_time_decay 0.001 >650
    cosine_decay 0.001 >580
    下载: 导出CSV 
    | 显示表格

    表3中可以观察到,指数衰减函数和自然指数衰减函数的迭代次数明显少于其他衰减函数. 它们能在不到200次迭代中收敛,而其他衰减函数则需要超过400次. 值得注意的是,指数衰减函数的收敛速度最快,而其他函数很难达到收敛,并且其准确率在一定范围内波动,非常不稳定.

    为了验证CLDNN模型的有效性,本文进行了消融实验,使用室外单排人数据构建了6个不同的人流量监测模型. 这些模型的准确率如图10所示,只有CLDNN和LSTM+DNN这2个模型在小样本数据的情况下达到较高的准确率,其他4个模型对样本数据量较为敏感,并且其准确率相对较低. CLDNN能够在较少的样本下表现出色,在样本数据充足时实现高精度的识别.

    图  10  不同模型的准确率
    Figure  10.  Accuracy of different models

    人流量监测系统的性能如图11所示,分别展示了室外和室内环境下系统的混淆矩阵. 从图11中可以观察到,室外环境下各个标签的准确率均高于室内环境. 这是因为室外环境相对于室内环境更加简单,信号损失较少. 无论是室外还是室内环境,各个标签的准确率均高于93%以上,系统准确率分别达到96%和94%. 以上结果表明Wi-HFM能满足实际生活中的应用需求.

    图  11  不同环境下系统的混淆矩阵图
    Figure  11.  Confusion matrix diagram of system in different environments

    为了验证Wi-HFM模型在无线感知人流量方面的有效性,本文工作与现有工作进行了比较研究,并将比较结果汇总于表4中. 文献[17]提出的Door-Monitor模型将相位差序列生成的频谱图输入到7层CNN网络中,对进出门的访客进行动态计数,其平均准确率为94.5%. WiCrowd[29]模型使用振幅和相位的协方差矩阵的特征值,有效地检测到视距附近由人群运动引起的显著信号变化,人数识别准确率最高可达82.4%. HFD[30]利用WiFi信号的偏度和峰度作为特征,并采用SVM对特征进行分类以此估计当前队列中的人数,其准确率能够保持在90%左右. 当区域仅有一排人流时,上述方法可有效估算人数;但面对多排连续人流,便无法准确处理.

    表  4  与现有工作的比较结果
    Table  4.  Results Compared with Existing Work
    模型 分类方法 识别人数 准确率/%
    Door-Monitor CNN 1~6 94.5
    WiCrowd SVM 1~4 82.4
    HFD SVM 1~5 90.0
    WiFlowCount CNN 1~6 94.3
    Wi-HFM CLDNN 1~5 96.7
    下载: 导出CSV 
    | 显示表格

    文献[18]中的WiFlowCount提出了一种最优旋转分割算法,将连续人流的频谱图分割成子人流的子频谱图. 通过卷积神经网络从子谱图中估算出每个子流中的人数,然后相加得出连续人流中的总人数. 该方案实现了连续的人流量计数,准确率也高达94.3%. 然而,WiFlowCount要求人与人之间的间隔至少8 m才能获得较好的效果,因此应用场景具有很大局限性. 与现有方法相比,Wi-HFM在连续人流计数方面表现出色. 只要排与排之间的距离大于1 m,无论是在室外还是室内环境中,本文方法的准确率均高达96.7%和94.1%. 综上所述,本文方法在实用性上明显优于现有方法.

    本文提出了Wi-FHM,一种基于商用WiFi信道特征信息的人流量监测方法. 该方法包含多个处理步骤:首先,采用相位校准算法消除随机相位偏移,接着使用巴斯特沃滤波器消除高频噪声,然后通过标准差和方差提取连续性人流数据中的有效数据包,利用PCA算法确定了时域上的相位差信息作为特征信号. 最后,借助相位差设计的传统特征信号输入到CLDNN模型中以实现连续性人流的人数统计. 实验结果表明,与传统人流量监测方案相比,Wi-FHM拥有较高的准确率和更为优异的实用性.

    未来的研究将聚焦在2个方面:1)将增加Wi-FHM的功能以进行人流的方向判定,以便系统能够识别进出人群的方向;2)将尝试使用模型迁移方法,以便在不同场景下仅使用1个模型监测人流量.

    作者贡献声明:杨志勇设计了论文整体逻辑架构并修改论文;卢超负责数据整理和撰写论文;王俊杰提出算法思路并完成实验.

  • 图  1   LLMs和KGs协同

    Figure  1.   Collaboration of LLMs and KGs

    图  2   LLM和KG协同的跨域异质数据查询框架

    Figure  2.   A synergetic LLM-KG framework for cross-domain heterogeneous data query

    图  3   JSON-LD数据格式

    Figure  3.   Data format of JSON-LD

    图  4   线性知识图转化示例

    Figure  4.   Example of knowledge line graph transformation

    图  5   在电影和书籍数据集中发生0%,30%,50%,70%的破坏场景下的性能比较

    Figure  5.   Perfomance comparison under scenarios of 0%, 30%, 50% and 70% corruption in the movie and book datasets

    表  1   预处理后的数据集信息统计

    Table  1   Statistics of the Preprocessed Datasets

    数据集 数据源(缩写) 源数量 实体数量 关系数量 查询数
    电影 JSON(J) 4 19 701 45 790 210
    KG(K) 5 100 229 264 709
    CSV(C) 4 70 276 184 657
    书籍 JSON(J) 3 3 392 2 824 100
    CSV(C) 3 2 547 1 812
    XML(X) 4 2 054 1 509
    航班 CSV(C) 10 48 672 100 835 260
    JSON(J) 10 41 939 89 339
    股票 CSV(C) 10 7 799 11 169 100
    JSON(J) 10 7 759 10 619
    下载: 导出CSV

    表  2   从性能和效率角度与基线模型和SOTA模型的对比实验

    Table  2   Comparison of Baseline Models and SOTA Models by Effectiveness and Efficiency

    数据集 数据类型 基础模型 SOTA模型 本文方法
    LTM TruthFinder ChatKBQA MD-QA FusionQuery MKLGP
    F1/% 时间/s F1/% 时间/s F1/% 时间/s F1/% 时间/s F1/% 时间/s F1/% 时间/s
    电影 J, K 41.4 1 995 37.1 9 717 43.2 3 809 46.2 1 588 53.2 122.4 52.6 98.3
    J, C 42.9 1 884 41.9 7 214 45.0 3 246 44.5 1 360 52.7 183.1 54.3 75.1
    K, C 41.2 1 576 37.8 2 199 37.6 2 027 45.2 987 42.5 141.0 49.1 86.0
    J, K, C 40.8 2 346 36.6 11 225 41.5 5 151 49.8 2 264 53.6 137.8 54.8 157
    书籍 J, C 42.4 195.3 40.2 1 017 35.2 165.0 55.7 14.2 58.5 22.7 62.5 3.66
    J, X 35.6 277.7 35.5 1 070 36.1 200.1 55.1 15.6 57.9 20.6 61.1 3.78
    C, X 44.1 232.6 43.0 1 033 42.6 201.4 57.2 15.6 60.3 21.5 59.0 3.54
    J, C, X 41.0 413.2 37.3 2 304 40.4 394.1 56.4 22.6 59.1 27.0 59.8 7.4
    航班 C, J 79.1 14 786 27.3 6 049 72.3 376 76.5 160 74.2 20.2 72.9 180
    股票 C, J 19.2 1 337 68.4 2.30 64.8 88.9 65.2 78.4 68.0 0.33 74.6 12.1
    注:黑体数值表示最优指标.
    下载: 导出CSV

    表  3   KLG的消融实验

    Table  3   Ablation Experiments of KLG

    数据集 数据源 MKLGP -KLG 差值
    F1/% QT/s PT/s F1/% QT/s PT/s F1/% QT/s PT/s
    电影 J, K 51.3 25.7 2.64 12.2 2 783 0.28 −39.1 +2 757.3 −2.36
    J, C 54.0 12.7 2.36 49.1 1 882 0.29 −4.9 +1 869.3 −2.07
    K, C 48.3 31.6 4.40 45.5 4 233 0.29 −2.8 +4 291.4 −4.11
    J, K, C 54.3 39.2 10.8 50.5 4 437 0.32 −3.8 +4 397.8 −10.48
    书籍 J, C 62.4 0.19 0.47 57.1 11.9 0.17 −5.3 +11.71 −0.3
    J, X 60.0 0.22 0.56 59.3 11.7 0.17 −0.7 +11.48 −0.39
    C, X 59.4 0.16 0.38 55.3 8.39 0.16 −4.1 +8.23 −0.22
    J, C, X 60.3 0.31 1.07 57.2 15.8 0.18 −3.1 +15.49 −0.89
    航班 C, J 72.9 29.8 109.9 75.2 13.2h 0.5 +2.1 NAN −109.4
    股票 C, J 71.6 0.72 0.36 69.6 450.8 0.19 −2.0 +450.02 −0.17
    注:黑体数值表示最优指标. QT表示查询时间,PT表示数据处理时间,MKLGP表示采用多域线性图提示嵌入算法的性能分析,-KLG表示不使用线性知识图情况下的性能分析.
    下载: 导出CSV
  • [1] 中华人民共和国国家发展和改革委员会. 《“十四五”数字经济发展规划》解读∣加快推进数据要素市场化建设 充分发挥数据要素作用[EB/OL]. (2022-01-03)[2024-07-15]. https://www.ndrc.gov.cn/xxgk/jd/jd/202201/t20220121_1312584.html

    National Development and Reform Commission. Interpretation of the “14th Five-Year Plan” for the development of the digital economy | accelerating the market-oriented construction of data elements and fully utilizing the role of data elements[EB/OL]. (2022-01-03)[2024-07-15]. https://www.ndrc.gov.cn/xxgk/jd/jd/202201/t20220121_1312584.html

    [2] 杜小勇,李彤,卢卫,等. 跨域数据管理[J]. 计算机科学,2024,51(1):4−12 doi: 10.11896/jsjkx.yg20240102

    Du Xiaoyong, Li Tong, Lu Wei, et al. Cross-domain data management[J]. Computer Science, 2024, 51(1): 4−12 (in Chinese) doi: 10.11896/jsjkx.yg20240102

    [3] 闫佳和,李红辉,马英,等. 多源异构数据融合关键技术与政务大数据治理体系[J]. 计算机科学,2024,51(2):1−14 doi: 10.11896/jsjkx.221200075

    Yan Jiahe, Li Honghui, Ma Ying, et al. Multi-source heterogeneous data fusion technologies and government big data governance system[J]. Computer Science, 2024, 51(2): 1−14 (in Chinese) doi: 10.11896/jsjkx.221200075

    [4]

    Qin Yuan, Ye Yuan, Zhenyu Wen, et al. An effective framework for enhancing query answering in a heterogeneous data lake[C]//Proc of the 46th Int ACM SIGIR Conf on Research and Development in Information Retrieval. New York: ACM, 2023: 770−780

    [5]

    Wu Xindong, Zhu Xingquan, Wu Gongqing, et al. Data mining with big data[J]. IEEE Transactions on Knowledge and Data Engineering, 2013, 26(1): 97−107

    [6] 王俊,王修来,庞威,等. 面向科技前瞻预测的大数据治理研究[J]. 计算机科学,2021,48(9):36−42 doi: 10.11896/jsjkx.210500207

    Wang Jun, Wang Xiulai, Pang Wei, et al. Research on big data governance for science and technology forecast[J]. Computer Science, 2021, 48(9): 36−42 (in Chinese) doi: 10.11896/jsjkx.210500207

    [7]

    Labrinidis A, Jagadish H V. Challenges and opportunities with big data[J]. Proceedings of the VLDB Endowment, 2012, 5(12): 2032−2033 doi: 10.14778/2367502.2367572

    [8] 杨佳,黄芳,龙军,等. 专家信息语义模型异构数据转换技术[J]. 计算机系统应用,2010,19(10):57−62 doi: 10.3969/j.issn.1003-3254.2010.10.012

    Yang Jia, Huang Fang, Long Jun, et al. Heterogeneous data conversion based on semantic models of expert information[J]. Computer Systems Applications, 2010, 19(10): 57−62 (in Chinese) doi: 10.3969/j.issn.1003-3254.2010.10.012

    [9]

    Popa L, Velegrakis Y, Miller R J, et al. Translating web data[C]//Proc of the 28th Int Conf on Very Large Databases. New York: ACM, 2002: 598−609

    [10]

    Mikolov T, Chen K, Corrado G, et al. Efficient estimation of word representations in vector space[J]. arXiv preprint, arXiv: 1301.3781, 2013

    [11]

    Mikolov T, Yih W, Zweig G. Linguistic regularities in continuous space word representations[C]//Proc of the 2013 Conf of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Stroudsburg, PA: ACL, 2013: 746−751

    [12]

    Mikolov T, Sutskever I, Chen Kai, et al. Distributed representations of words and phrases and their compositionality[C]//Proc of the 27th Int Conf on Neural Information Processing Systems. Cambridge, MA: MIT, 2013: 26

    [13] 王萌,王昊奋,李博涵,等. 新一代知识图谱关键技术综述[J]. 计算机研究与发展,2022,59(9):1947−1965 doi: 10.7544/issn1000-1239.20210829

    Wang Meng, Wang Haofen, Li Bohan, et al. Survey on key technologies of new generation knowledge graph[J]. Journal of Computer Research and Development, 2022, 59(9): 1947−1965 (in Chinese) doi: 10.7544/issn1000-1239.20210829

    [14] 陈慧敏,刘知远,孙茂松. 大语言模型时代的社会机遇与挑战[J]. 计算机研究与发展,2024,61(5):1094−1103 doi: 10.7544/issn1000-1239.202330700

    Chen Huimin, Liu Zhiyuan, Sun Maosong. The social opportunities and challenges in the era of large language models[J]. Journal of Computer Research and Development, 2024, 61(5): 1094−1103 (in Chinese) doi: 10.7544/issn1000-1239.202330700

    [15]

    Hong Sirui, Lin Yizhang, Liu Bang, et al. Data interpreter: An LLM agent for data science[J]. arXiv preprint, arXiv: 2402.18679, 2024

    [16] 虎嵩林,李涓子,秦兵,等. 亦正亦邪大语言模型——大语言模型与安全专题导读[J]. 计算机研究与发展,2024,61(5):1085−1093 doi: 10.7544/issn1000-1239.qy20240501

    Hu Songlin, Li Juanzi, Qin Bing, et al. The dual nature of large models: An introduction to the special topic on large models and security[J]. Journal of Computer Research and Development, 2024, 61((5): ): 1085−1093 (in Chinese) doi: 10.7544/issn1000-1239.qy20240501

    [17]

    Pan Shirui, Luo Linhao, Wang Yufei, et al. Unifying large language models and knowledge graphs: A roadmap[J]. IEEE Transactions on Knowledge and Data Engineering, 2024, 36(7): 3580−3599 doi: 10.1109/TKDE.2024.3352100

    [18] 冯杨洋,汪庆,舒继武,等. 从BERT到ChatGPT:大语言模型训练中的存储系统挑战与技术发展[J]. 计算机研究与发展,2024,61(4):809−823 doi: 10.7544/issn1000-1239.202330554

    Feng Yangyang, Wang Qing, Shu Jiwu, et al. From BERT to ChatGPT: Challenges and technical development of storage systems for large model training[J]. Journal of Computer Research and Development, 2024, 61(4): 809−823 (in Chinese) doi: 10.7544/issn1000-1239.202330554

    [19]

    Zhu Hongyin, Peng Hao, Lyu Zhiheng, et al. Pre-training language model incorporating domain-specific heterogeneous knowledge into a unified representation[J]. Expert Systems with Applications, 2023, 215(1): 119369

    [20]

    Hu Linmei, Liu Zeyi, Zhao Ziwang, et al. A survey of knowledge enhanced pre-trained language models[J]. IEEE Transactions on Knowledge and Data Engineering, 2024, 36(4): 1413−1430 doi: 10.1109/TKDE.2023.3310002

    [21]

    Ji Ziwei, Lee N, Frieske R, et al. Survey of hallucination in natural language generation[J]. ACM Computing Surveys, 2023, 55(12): 1−38

    [22] 朱迪,张博闻,程雅琪,等. 知识赋能的新一代信息系统研究现状、发展与挑战[J]. 软件学报,2023,34(10):4439−4462

    Zhu Di, Zhang Bowen, Cheng Yaqi, et al. Survey on knowledge enabled new generation information systems[J]. Journal of Software, 2023, 34(10): 4439−4462 (in Chinese)

    [23] 杨晓慧,万睿,张海滨,等. 基于符号语义映射的知识图谱表示学习算法[J]. 计算机研究与发展,2018,55(8):1773−1784 doi: 10.7544/issn1000-1239.2018.20180248

    Yang Xiaohui, Wan Rui, Zhang Haibin, et al. Semantical symbol mapping embedding learning algorithm for knowledge graph[J]. Journal of Computer Research and Development, 2018, 55(8): 1773−1784 (in Chinese) doi: 10.7544/issn1000-1239.2018.20180248

    [24] 董永强,王鑫,刘永博,等. 异构YANG模型驱动的网络领域知识图谱构建[J]. 计算机研究与发展,2020,57(4):699−708 doi: 10.7544/issn1000-1239.2020.20190882

    Dong Yongqiang, Wang Xin, Liu Yongbo, et al. Building network domain knowledge graph from heterogeneous YANG models[J]. Journal of Computer Research and Development, 2020, 57(4): 699−708 (in Chinese) doi: 10.7544/issn1000-1239.2020.20190882

    [25] 郑苏苏,关东海,袁伟伟. 融合不完整多视图的异质信息网络嵌入方法[J]. 计算机科学,2021,48(9):68−76 doi: 10.11896/jsjkx.210500203

    Zheng Susu, Guan Donghai, Yuan Weiwei. Heterogeneous information network embedding with incomplete multi-view fusion[J]. Computer Science, 2021, 48(9): 68−76 (in Chinese) doi: 10.11896/jsjkx.210500203

    [26] 陈璐,郭宇翔,葛丛丛. 基于联邦学习的跨源数据错误检测方法[J]. 软件学报,2023,34(3):1126−1147

    Chen Lu, Guo Yuxiang, Ge Congcong, el al. Cross-source data error detection approach based on federated learning[J]. Journal of Software, 2023, 34(3): 1126−1147 (in Chinese)

    [27] 马健伟,王铁鑫,江宏,等. 基于深度语义分析的警务卷宗知识抽取[J]. 计算机研究与发展,2024,61(5):1325−1335 doi: 10.7544/issn1000-1239.202330691

    Ma Jianwei, Wang Tiexin, Jiang Hong, et al. Knowledge extraction based on deep semantics analysis towards police dossier[J]. Journal of Computer Research and Development, 2024, 61(5): 1325−1335 (in Chinese) doi: 10.7544/issn1000-1239.202330691

    [28]

    Tu Jianhong, Fan Ju, Tang Nan, et al. Unicorn: A unified multi-tasking model for supporting matching tasks in data integration[J]. Proceedings of the ACM on Management of Data, 2023, 1(1): 1−26

    [29]

    Shinn N, Labash B, Gopinath A. Reflexion: An autonomous agent with dynamic memory and self-reflection[J]. arXiv preprint, arXiv: 2303.11366, 2023

    [30]

    Wei Jason, Wang Xuezhi, Schuurmans D, et al. Chain-of-thought prompting elicits reasoning in large language models[C]// Proc of the 36th Int Conf on Neural Information Processing Systems. Cambridge, MA: MIT, 2022: 35: 24824−24837

    [31]

    Yao Shunyu, Zhao Jeffrey, Yu Dian, et al. React: Synergizing reasoning and acting in language models[J]. arXiv preprint, arXiv: 2210.03629, 2022

    [32]

    Schick T, Dwivedi-Yu J, Dessì R, et al. Toolformer: Language models can teach themselves to use tools[C]//Proc of the 38th Int Conf on Neural Information Processing Systems. Cambridge, MA: MIT, 2024: 36

    [33]

    Doan A H, Halevy A Y. Semantic integration research in the database community: A brief survey[J]. AI Magazine, 2005, 26(1): 83−83

    [34]

    Dong X L. Challenges and innovations in building a product knowledge graph[C]//Proc of the 24th SIGKDD Int Conf on Knowledge Discovery & Data Mining. New York: ACM, 2018: 2869−2869

    [35]

    De Sa C, Ratner A, Ré C, et al. Deepdive: Declarative knowledge base construction[J]. ACM SIGMOD Record, 2016, 45(1): 60−67 doi: 10.1145/2949741.2949756

    [36]

    Etzioni O, Cafarella M, Downey D, et al. Unsupervised named-entity extraction from the web: An experimental study[J]. Artificial Intelligence, 2005, 165(1): 91−134 doi: 10.1016/j.artint.2005.03.001

    [37]

    Madhavan J, Jeffery S R, Cohen S, et al. Web-scale data integration: You can only afford to pay as you go[C]//Proc of the 3rd Biennial Conference on Innovative Data Systems Research. New York: ACM, 2007: 342−350

    [38]

    Cafarella M J, Madhavan J, Halevy A. Web-scale extraction of structured data[J]. ACM SIGMOD Record, 2009, 37(4): 55−61 doi: 10.1145/1519103.1519112

    [39]

    Trummer I. The case for NLP-enhanced database tuning: Towards tuning tools that “read the manual”[J]. Proceedings of the VLDB Endowment, 2021, 14(7): 1159−1165 doi: 10.14778/3450980.3450984

    [40]

    Miao Xupeng, Wang Yujie, Jiang Youhe, et al. Galvatron: Efficient transformer training over multiple gpus using automatic parallelism[J]. arXiv preprint, arXiv: 2211.13878, 2022

    [41]

    Um T, Oh B, Seo B, et al. Fastflow: Accelerating deep learning model training with smart offloading of input data pipeline[J]. Proceedings of the VLDB Endowment, 2023, 16(5): 1086−1099 doi: 10.14778/3579075.3579083

    [42]

    Zhao Yanlin, Gu A, Varma R, et al. Pytorch fsdp: Experiences on scaling fully sharded data parallel[J]. arXiv preprint, arXiv: 2304.11277, 2023

    [43]

    Tan Y, Min D, Li Y, et al. Can ChatGPT replace traditional KBQA models? An in-depth analysis of the question answering performance of the GPT LLM family[C]//Proc of the 22nd Int Semantic Web Conf. Berlin: Springer, 2023: 348−367

    [44]

    Luo Haoran, E haihong, Tang Zichen, et al. ChatKBQA: A generate-then-retrieve framework for Kkowledge base question answering with fine-tuned large language models[C]//Findings of the 62nd Association for Computational Linguistics. Stroudsburg, PA: ACL, 2024: 2039−2056

    [45]

    Hu Nan, Wu Yike, Qi Guilin, et al. An empirical study of pre-trained language models in simple knowledge graph question answering[C]//Proc of the 30th Int Conf on World Wide Web. New York: ACM, 2023, 2855−2886

    [46]

    Xu Yichong, Zhu Chenguang, Xu Ruochen, et al. Fusing context into knowledge graph for commonsense question answering[C]//Findings of the 59th Association for Computational Linguistics. Stroudsburg, PA: ACL, 2021: 1201−1207

    [47]

    Jiang Jinhao, Zhou Kun, Zhao W X, et al. Unikgqa: Unified retrieval and reasoning for solving multi-hop question answering over knowledge graph[J]. arXiv preprint, arXiv: 2212.00959, 2022

    [48]

    Jiang Jinhao, Zhou Kun, Dong Zican, et al. Structgpt: A general framework for large language model to reason over structured data[J]. arXiv preprint, arXiv: 2305.09645, 2023

    [49]

    Fernandez R C, Elmore A J, Franklin M J, et al. How large language models will disrupt data management[J]. Proceedings of the VLDB Endowment, 2023, 16(11): 3302−3309 doi: 10.14778/3611479.3611527

    [50]

    Fabio B, Bruno M S F, Rafael T, et al. Model-driven integration and the OSLC standard: A mapping of applied studies[C]//Proc of the 38th ACMIGAPP Symp on Applied Computing. New York: ACM, 2023: 763−770

    [51]

    Bizer C, Heath T, Idehen K, et al. Linked data on the web [C]//Proc of the 17th Int Conf on World Wide Web. New York: ACM, 2008: 1265−1266

    [52]

    Fionda V, Pirrò G. Learning triple embeddings from knowledge graphs[C]//Proc of the 34th AAAI Conf on Artificial Intelligence. Palo Alto, CA : AAAI, 2020, 3874−3881

    [53]

    Zhu Junhao, Mao Yuren, Chen Lu, et al. FusionQuery: On-demand fusion queries over multi-source heterogeneous data[J]. Proceedings of the VLDB Endowment, 2024, 17(6): 1337−1349 doi: 10.14778/3648160.3648174

    [54]

    Yin Xiaoxin, Han Jiawei, Yu P S. Truth discovery with multiple conflicting information providers on the web[C]//Proc of the 13th ACM SIGKDD Int Conf on Knowledge Discovery & Data Mining. New York: ACM, 2007: 1048−1052

    [55]

    Jang E, Gu Shixiang, Poole B. Categorical reparameterization with gumbel-softmax[J]. arXiv preprint, arXiv: 1611.01144, 2016

    [56]

    Dong X L, Berti-Equille L, Srivastava D. Integrating conflicting data: The role of source dependence[J]. Proceedings of the VLDB Endowment, 2009, 2(1): 550−561 doi: 10.14778/1687627.1687690

    [57]

    Li Xian, Dong X L, Lyons K, et al. Truth finding on the deep web: Is the problem solved?[J]. Proceedings of the VLDB Endowment, 2012, 6(2): 97−108 doi: 10.14778/2535568.2448943

    [58]

    Zhao Bo, Rubinstein B I P, Gemmell J, et al. A Bayesian approach to discovering truth from conflicting sources for data integration[J]. Proceedings of the VLDB Endowment, 2012, 5(6): 550−561 doi: 10.14778/2168651.2168656

    [59]

    Wang Yu, Lipka N, Rossi R A, et al. Knowledge graph prompting for multi-document question answering[C]//Proc of the 38th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2024, 19206−19214

图(5)  /  表(3)
计量
  • 文章访问数:  205
  • HTML全文浏览量:  12
  • PDF下载量:  106
  • 被引次数: 0
出版历程
  • 收稿日期:  2024-07-20
  • 修回日期:  2025-02-09
  • 网络出版日期:  2025-02-12
  • 刊出日期:  2025-02-28

目录

/

返回文章
返回